Jumat, 23 September 2011

Teknologi Perangkat Keras

Sistem Digital

Sejak diciptakan pertama kali, komputer bekerja atas dasar sistem biner. Sistem biner adalah sistem
bilangan yang hanya mengenal dua macam angka yang disebut dengan bit (
1. Hanya dengan dua kemungkinan bilangan ini komputer dapat menyajikan informasi yang bergitu
berguna bagi peradaban manusia

Bit-bit dapat digunakan untuk menyusun karakter apa saja. Istilah karakter dalam dunia komputer
berarti:
• Huruf, misalnya A dan S,
• Digit, seperti 3, 2, dan 9,
• Selain huruf dan digit, ada juga tanda seperti #, @, & bahkan sa
Sebuah karakter dinyatakan dengan 8 bit ataupun 16 bit. Himpunan kode yang digunakan untuk
menyatakan berbagai karakter akan dibahas pada sub modul berikut. Kemungkinan nilai pada sebuah
sistem biner yang berupa 0 dan 1 din
hanya mengenal keadaan on dan off. Keadaan on menyatakan 1 dan off menyatakan 0. sebagai
contoh, dengan menggunakan 8 buah saklar akan didapatkan 256 (2
berikut menunjukkan kata “Hai” yang dinyatakan dengan kombinasi 8 keadaan (

Meski komputer bekerja atas dasar sistem biner, pemakai awam bekerja dengan perspektif berbeda,
pada prinsipnya pemakai awam tidak perlu tahu tentang sistem biner. Sebagai contoh, seorang
pemakai yang ingin melakukan perhitungan 12 + 76 ataupun menuliskan
a binary digit
1 Dua keadaan yang merepresentasikan data
sampai simbol seperti α, β, dan λ.


dinyatakan dalam sistem komputer dengan metode saklar yang 
kombinasi nilai.
.
pada sistem yang biasa digunakan manusia. Pemakai tidak perlu tahu bentuk biner dari huruf H
ataupun bentuk biner dari digit 12. secara internal komputer yang akan mengubah bentuk

representasi manusia ke dalam sistem biner dan selanjutnya komputer menyajikan informasi dalam
bentuk simbol-simbol yang biasa digunakan manusia.








Satuan Data

Bit merupakan satuan data terkecil dalam sistem komputer. Di atas satuan ini terdapat berbagai
satuan lain, yakni byte, megabyte, gigabyte, terabyte, dan petabyte. Tabel 3.1 memberikan ringkasan
seluruh satuan data beserta hubungan dengan satuan data yang lain.
Selain berbagai istilah yang menggunakan istilah byte, kadangkala dijumpai istilah yang menggunakan
bit sepert megabit. Penggunaan istilah ini biasanya dikaitkan dengan “per detik”, misalnya, 10 megabit
perdetik. Istilah megabit per detik sering dinyatakan dengan Mbps (megabit per second). Dalam hal ini,
megabit berarti 1.000.000 bit.
Byte merupakan satuan yang digunakan untuk menyatakan sebuah karakter. Sebagai contoh, sebuah



byte pada sistem ASCII dinyatakan dengan sebuah byte. Sebuah byte tersusun atas 8 buah bit.






Satuan Waktu dan Frekuensi

Bagi manusia 1 detik merupakan waktu yang sangat cepat, tetapi tidak bagi komputer. Kecepatan
komputer dalam memproses sebuah data sangatlah tinggi. Orde waktu yang digunakan untuk
mengerjakan sebuah instruksi jauh di bawah 1 detik. Itulah sebabnya terdapat beberapa satuan waktu
yang perlu diketahui, sebagaimana terlihat pada tabel berikut ini.

Satuan lain yang banyak disinggung dalam sistem komputer adalah satuan frekuensi. Frekuensi diukur
dengan satuan hertz. Frekuensi berarti jumlah siklus dalam 1 detik. 1 Hertz berarti dalam satu detik
terbentuk sebuah siklus. Ukuran frekuensi yang lebih besar adalah kilohertz, megahertz, dan gigahertz.
1 kilohertz (KHz) = 1000 Hertz (Hz), 1 megahertz (MHz) = 1000 kilohertz, dan 1 gigahertz (GHz) = 1000
megahertz.





Sistem Pengkodean Karakter

Sistem yang digunakan untuk mengkodekan karakter ada bermacam-macam. Tiga yang terkenal
adalah ASCII, EBCDIC, dan Unicode.
1.ASCII
ASCII (American Standard Code for Information Interchange) dikembangkan oleh ANSI (American
National Standard Institute). Pada awalnya standar ini menggunakan 7 buah bit, karakter yang tersedia
meliputi karakter kontrol, huruf (A-Z dan a-z), digit (0-9), dan sejumlah simbol seperti * dan +.
Belakangan ASCII dikembangkan dengan menggunakan 8 buah bit dengan tambahan sejumlah simbol
Yunani dan karakter grafis.
2. EBCDIC
EBCDIC (Extended Binary Coded Decimal Interchange Code) merupakan standar yang dibuat oleh IBM
pada tahun 1950-an dan menggunakan 8 bit untuk setiap kode. Pertama kali digunakan pada IBM
System/360. Standar ini diterapkan pada berbagai komputer mainframe.
3. Unicode
Unicode merupakan standar yang lebih baru. Pada standar ini sebuah karakter dinyatakan dengan 16
bit. Hasilnya standar ini dapat mencakup 65.536 karakter. Dengan cara seperti ini berbagai simbol
dalam bahasa seperti Bahasa Arab dan Cina bisa ditampung.


0 komentar:

Posting Komentar