Top 10 List of Week 08

  1. Process Scheduling in OS
    Definisi dari Scheduling (dalam opertaing systems) adalah The process scheduling is the activity of the process manager that handles the removal of the running process from the CPU and the selection of another process on the basis of a particular strategy.. Artikel ini menjelaskan garis besar scheduling dalam OS dan berbagai proses didalamnya, serta kepentingannya dalam OS.

  2. Linux From Scratch
    Minggu ini adalah minggu pertama menjalankan project membuat linux dari awal. Page ini menjelaskan apa itu project LFS, mengapa kita mau LFS, dan apa tujuan dan manfaat menjalankan project LFS.

  3. Rate-Monotonic Scheduling

    Rate monotonic scheduling is a priority algorithm that belongs to the static priority scheduling category of Real Time Operating Systems. It is preemptive in nature. The priority is decided according to the cycle time of the processes that are involved. If the process has a small job duration, then it has the highest priority. Thus if a process with highest priority starts execution, it will preempt the other running processes. The priority of a process is inversely proportional to the period it will run for.

salah satu contoh preemptive scheduling. Artikel ini menjelskan apa itu RMS, contoh RMS, dan visualisasi cara kerja system RMS.

  1. Multiple-Processor Scheduling in Operating System
    Salah satu advances dari teknologi sekarang adalah multi-processor CPU, dimana dahulu suatu instruction hanya dikerjakan satu core, sekarang load tersebut bisa didistribusikan ke beberapa processor maka suatu processor bisa menjalankan banyak instruction per clock cycle. dengan adanya fitur ini tentunya semua peroses harus di-“jadwalkan” oleh OS.

  2. Preemptive and Non-Preemptive Scheduling
    secara gaaris besar preemptive scheduling adalah

    Preemptive Scheduling is a CPU scheduling technique that works by dividing time slots of CPU to a given process. The time slot given might be able to complete the whole process or might not be able to it. When the burst time of the process is greater than CPU cycle, it is placed back into the ready queue and will execute in the next chance. This scheduling is used when the process switch to ready state.

dan non preemptive adalah

Non-preemptive Scheduling is a CPU scheduling technique the process takes the resource (CPU time) and holds it till the process gets terminated or is pushed to the waiting state. No process is interrupted until it is completed, and after that processor switches to another process.

artikel ini menjelaskan lebihdalam apa perbedaan mereka berdua, advantages dan disadvantages dari kedua sistem dan dimana mereka masing-masing lebih baik.

  1. Multiprocessing
    artikel ini menjelaskan secara umum apa itu multiprocessing, Mmebicarakan cara kerja 2 cara secara umum (Symetric Multiprocessing dan Asymetric Multiprocessing), serta hal-hal lain seperti Non-Uniform Memory Access. Mnearik karena menjelaskan bagaimana multiprocessor CPU membagi load ke berbagai core.

  2. Penjadwalan Master/Slave
    Suatu proses yang unik ke Asymetric Multiprocesing

Pendekatan pertama untuk penjadwalan prosesor jamak adalah penjadwalan asymmetric multiprocessing atau bisa disebut juga sebagai penjadwalan master/slave. Dimana pada metode ini hanya satu prosesor( master) yang menangani semua keputusan penjadwalan, pemrosesan M/K, dan aktivitas sistem lainnya dan prosesor lainnya ( slave) hanya mengeksekusi proses. Metode ini sederhana karena hanya satu prosesor yang mengakses struktur data sistem dan juga mengurangi data sharing.

Penjelasan yang singkat namun jelas.

  1. CPU and I/O Burst Cycles
    Channel ini mubgkin lebih terkenal u=sebagai channel untuk mengerjakan tugas TBA, namun ternyata channel Neso Academy juga membahas hal-hal seperti CPU burst cycles. Video ini menjelaskan konsep dan perhitungan dengan sangat simpel dan jelas.

  2. Soft vs Hard Realtime Scheduling
    Penjelasan singkat mengenai jenis real-time scheduling. Memberi contoh dari kedua jenis real-time scheduling, perbedaan umum dari kedua hal tersebut.

  3. What is load balancing?

    Load balancing is defined as the methodical and efficient distribution of network or application traffic across multiple servers in a server farm. Each load balancer sits between client devices and backend servers, receiving and then distributing incoming requests to any available server capable of fulfilling them.

Artikel memberi penjelasan bagaimana load balancer bekerja, kegunaan, hadware vs software balancers, membahas round robin, Least Connection Method, Least Response Time Method, Least Bandwidth Method, dan banyak lagi. Serta memberi artikel lain yang membahas hal tersebut lebih dalam.

HOME