Jumat, 30 Mei 2014

Blackberry, iOS, Android, & Windows Phone

  Setiap gadget menggunakan operating system (OS) atau sistem operasi agar dapat bekerja optimal dan memberi keunikan kepada pengguna gadget dengan beragam fitur yang ditawarkan. Pengembang OS berkompetensi dengan waktu dan pesaing mereka agar dapat merebut pasar pengguna gadget yang terus berkembang.
  Pada awal abad ke-21 kita hanya mengenal Windows sebagai satu-satunya sistem operasi terpopuler untuk perangkat komputer. Saat ini kita mengenal setidaknya lima operating system terpopuler di dunia yang dibenamkan dalam perangkat komunikasi seluler, yaitu Blackberry, iPhone OS (iOS), Symbian, Android, dan Windows Phone. Mari kita bahas perbedaan Blackberry, iOS, Android dan Windows Phone.



Blackberry OS

  Sistem operasi Blackberry dikembangkan oleh perusahaan RIM, Research in Motion, untuk ditanamkan pada semua jenis ponsel Blackberry (BB) produksi mereka. Blackberry OS hanya bisa dipakai pada smartphone Blackberry, tidak bisa untuk gadget lain. Blackberry OS bekerja secara multitasking dan dilengkapi fasilitas trackball, touchscreen, trackwheel, dan trackpad.
  Fitur unggulan dari Blackberry OS adalah Blackberry Messenger (BBM) dan Push Mail. BBM adalah fitur komunikasi BlackBerry yang bekerja serupa dengan Yahoo Messenger (YM) dan Google Talk (GTalk). Sedangkan Push Email memudahkan pengguna gadget BB untuk membuka email secara mudah dan cepat dari smartphone mereka.

iPhone OS (iOS)

  iOS dikembangkan oleh perusahaan Apple dan digunakan secara eksklusif pada gadget produksi Apple. Sama seperti sistem operasi Blackberry, iOS hanya bisa dipakai pada perangkat smartphone tertentu. Saat ini teknologi iOS mendukung performa perangkat mobile seperti iPad, Apple TV, dan iPod Touch. Versi terbaru operating system ini adalah iOS 6.
  iOS mampu menjalankan perintah suara (Voice Commands), reading list, call filtering, call reply actions, dan video chatting dengan koneksi 3G maupun WiFi. Bagi Anda yang menyukai aktifitas berjejaring sosial, iOS mendukung integrasi akun Facebook dan Twitter Anda sehingga lebih mudah berbagi cerita menarik ke teman-teman dan relasi.

Android OS

  Android Operating System dikembangkan oleh Google Inc. dan merupakan open source (platform terbuka) yang memungkinkan pengguna gadget Android menciptakan beragam aplikasi sesuai kebutuhan. Saat ini Android tumbuh sebagai OS yang paling banyak digunakan pada perangkat ponsel pintar (smartphone) di seluruh dunia. OS Android memiliki ribuan aplikasi dan jumlahnya terus bertambah.
  Upgrade OS Android terus berjalan dengan versi terbaru Android 4.0. Versi OS Android memiliki nama-nama unik berdasarkan menu makanan, misalnya Android 1.5 Cupcake, Android 1.6 Donut, Android 2.2 Frozen Yoghurt (Froyo), Android 2.3 GingerBread, dan Android 4.0 Ice Cream Sandwich. Karena bersifat openSource, OS Android bisa diterapkan pada beragam gadget yang mendukung komunikasi mobile.

Windows Phone

  Windows Phone pada awal kemunculannya bernama Pocket PC lalu berubah nama menjadi Windows Mobile (2003) dan Windows Phone (2010). Sistem operasi ini dikembangkan oleh Microsoft Corp. dan digunakan untuk perangkat mobile buatan mereka. Versi terbaru OS smartphone Microsoft ini adalah Windows Phone 7.5 dan mendukung fitur Photo Streaming melalui SkyDrive.
  Sama seperti iOS, OS Windows Phone memiliki fitur content sharing, Facebook integration, dan Twitter integration. Windows Phone dikembangkan menurut Cloud Computing (komputasi awan) dengan sejumlah layanan menarik seperti SkyMarket, SkyLine, dan SkyBox. Cloud Computing dapat berjalan dengan optimal pada jaringan internet dengan kualitas andal.

Referensi:
1.http://www.gadgetasli.com/article/perbedaan-blackberry-ios-android-dan-windows-phone/57/


Minggu, 04 Mei 2014

Cloud Computing

Komputasi awan (bahasa Inggris: cloud computing) adalah gabungan pemanfaatan teknologi komputer ('komputasi') dan pengembangan berbasis Internet ('awan'). Awan (cloud) adalah metafora dari internet, sebagaimana awan yang sering digambarkan di diagram jaringan komputer. Sebagaimana awan dalam diagram jaringan komputer tersebut, awan (cloud) dalam Cloud Computing juga merupakan abstraksi dari infrastruktur kompleks yang disembunyikannya. Ia adalah suatu metoda komputasi di mana kapabilitas terkait teknologi informasi disajikan sebagai suatu layanan (as a service),  sehingga pengguna dapat mengaksesnya lewat Internet ("di dalam awan")  tanpa mengetahui apa yang ada didalamnya, ahli dengannya, atau memiliki kendali terhadap infrastruktur teknologi yang membantunya. Menurut sebuah makalah tahun 2008 yang dipublikasi IEEE Internet Computing "Cloud Computing adalah suatu paradigma di mana informasi secara permanen tersimpan di server di internet dan tersimpan secara sementara di komputer pengguna (client) termasuk di dalamnya adalah desktop, komputer tablet, notebook, komputer tembok, handheld, sensor-sensor, monitor dan lain-lain."

Komputasi awan adalah suatu konsep umum yang mencakup SaaS, Web 2.0, dan tren teknologi terbaru lain yang dikenal luas, dengan tema umum berupa ketergantungan terhadap Internet untuk memberikan kebutuhan komputasi pengguna. Sebagai contoh, Google Apps menyediakan aplikasi bisnis umum secara daring yang diakses melalui suatu penjelajah web dengan perangkat lunak dan data yang tersimpan di server. Komputasi awan saat ini merupakan trend teknologi terbaru, dan contoh bentuk pengembangan dari teknologi Cloud Computing ini adalah iCloud

Sejarah cloud computing dimulai pada tahun1960-an, John McCarth seorang pakar komputer dari MIT meramalkan bahwa suatu hari nanti komputerisasi akan menjadi infrastruktur publik layaknya seperti berlangganan listrik atau telepon. Kemudian pada akhir tahun 1990-an, lahir konsep ASP (Application Service Provider) yang ditandai munculnya perusahaan pengolah data center. Selanjutnya pada tahun1995, Larry Ellison, pendiri Oracle, melahirkan wacana “Network Computing” pasca penetrasi Microsoft Windows 95 yang merajai pasar software dunia pada saat itu. Ide itu menyebutkan bahwa PC tidak perlu dibenamkan software yang membuat berat kinerja dan cukup diganti sebuah terminal utama berupa server. Pada awal tahun 2000-an, Marc Beniof, eks Vice President Oracle melansir aplikasi CRM berbentuk “software as a service” bernama Salesforce.com sebagai penanda lahirnya cloud computing. Tahun 2005, situs online shopping Amazon.com meluncurkan Amazon EC2 (Elastic Compute Cloud), diikuti Google dengan Google App Engine, dan IBM yang melansir Blue Cloud Initiative.

Berdasarkan jenis layanan-nya, Cloud Computing dibagi menjadi berikut ini:
  1. Software as a Service (SaaS)
  2. Platform as a Service (PaaS)
  3. Infrastructure as a Service (IaaS)



Referensi:
  1. http://teknologi.kompasiana.com/internet/2013/11/21/pengertian-cloud-computing-611685.html
  2. http://shadow3002.blogspot.com/2014/04/cloud-computing.html



Search Engine Optimization

Optimisasi mesin pencari (bahasa Inggris: Search Engine Optimization, biasa disingkat SEO) adalah serangkaian proses yang dilakukan secara sistematis yang bertujuan untuk meningkatkan volume dan kualitas trafik kunjungan melalui mesin pencari menuju situs web tertentu dengan memanfaatkan mekanisme kerja atau algoritma mesin pencari tersebut. Tujuan dari SEO adalah menempatkan sebuah situs web pada posisi teratas, atau setidaknya halaman pertama hasil pencarian berdasarkan kata kunci tertentu yang ditargetkan. Secara logis, situs web yang menempati posisi teratas pada hasil pencarian memiliki peluang lebih besar untuk mendapatkan pengunjung.

Sejalan dengan makin berkembangnya pemanfaatan jaringan internet sebagai media bisnis, kebutuhan atas SEO juga semakin meningkat. Berada pada posisi teratas hasil pencarian akan meningkatkan peluang sebuah perusahaan pemasaran berbasis web untuk mendapatkan pelanggan baru. Peluang ini dimanfaatkan sejumlah pihak untuk menawarkan jasa optimisasi mesin pencari bagi perusahaan-perusahaan yang memiliki basis usaha di internet.

Menurut Danny Sullivan, istilah search engine optimization pertama kali digunakan pada 26 Juli tahun 1997 oleh sebuah pesan spam yang diposting di Usenet. Pada masa itu algoritma mesin pencari belum terlalu kompleks sehingga mudah dimanipulasi.

Versi awal algoritma pencarian didasarkan sepenuhnya pada informasi yang disediakan oleh webmaster melalui meta tag pada kode html situs web mereka. Meta tag menyediakan informasi tentang konten yang terkandung pada suatu halaman web dengan serangkaian kata kunci (keyword). Sebagian webmaster melakukan manipulasi dengan cara menuliskan katakunci yang tidak sesuai dengan konten situs yang sesungguhnya, sehingga mesin pencari salah menempatkan dan memeringkat situs tersebut. Hal ini menyebabkan hasil pencarian menjadi tidak akurat dan menimbulkan kerugian baik bagi mesin pencari maupun bagi pengguna internet yang mengharapkan informasi yang relevan dan berkualitas.

Larry Page dan Sergey Brin, dua mahasiswa doktoral ilmu komputer Universitas Stanford, berusaha mengatasi permasalahan tersebut dengan membangun Backrub, sebuah mesin pencari sederhana yang mengandalkan perhitungan matematika untuk memeringkat halaman web. Algoritma tersebut, yang dinamakan PageRank, merupakan fungsi matematika yang kompleks berupa kombinasi antara perhitungan jumlah link yang mengarah pada suatu halaman web dengan analisis atas kualitas masing-masing link tersebut.

Berdasarkan prinsip kerja PageRank, secara umum bisa dikatakan bahwa halaman web yang memperoleh peringkat tinggi adalah halaman web yang banyak di-link oleh halaman web lain. Nilai PageRank juga akan semakin tinggi apabila halaman web yang mengarah kepadanya juga memiliki kualitas yang tinggi. Nilai sebuah link dari situs berkualitas tinggi seperti Yahoo! atau DMOZ dapat bernilai lebih tinggi daripada kombinasi nilai link dari seratus situs web berkualitas rendah.


Backrub hanyalah sebuah permulaan. Pada tahun 1998 Page dan Brin mendirikan Google yang merupakan versi tingkat lanjut dari Backrub. Dalam waktu singkat Google memperoleh reputasi dan kepercayaan dari publik pengguna internet karena berhasil menyajikan hasil pencarian yang berkualitas (tidak dimanipulasi), cepat, dan relevan. PageRank lantas menjadi standar baik bagi mesin pencari lain maupun bagi webmaster yang berusaha agar situs webnya memperoleh nilai PageRank setinggi mungkin sehingga menempati posisi tertinggi pada hasil pencarian.

Teknik SEO dilakukan melalui proses yang systematis artinya teknik ini harus mengikuti aturan-aturan yang berlaku pada suatu search engine tertentu yang menjadi rujukannya.
Teknik SEO diterapkan pada suatu website dengan tujuan untuk meningkatkan jumlah pengunjung website tersebut. Banyak sekali faktor yang menentukan keberhasilan dalam SEO namun dapat di golongkan menjadi dua yaitu :

  • Onpage Optimization yaitu teknik melakukan optimasi dari dalam suatu website dengan jalan memodifikasi faktor-faktor tertentu dari bagian suatu website misalkan menentukan title, tag, content yang relevan dengan title dan lain-lain.
  • Offpage Optimization yaitu teknik optimasi yang dilakukan dari luar bagian website dengan tetap mengacu pada alogaritma search engine tertentu misalkan memperbanyak      backlink yang berkualitas.


Teknik SEO bagi kebanyakan orang bisa terbilang sulit karena membutuhkan skill yang cukup dan tingkat kesabaran yang tinggi sedangkan hasilnya tidak dapat dilihat secara langsung. Selain itu metode search engine tertentu, untuk meng-index hasil pencarian juga sering berubah. Oleh karena itu SEO dapat dikatakan sangat dinamis karena metodenya berubah dari waktu ke waktu dan juga SEO tidak dapat memberikan jaminan apakah website Anda akan muncul dalam index pencarian teratas atau tidak

Referensi:
  1. http://shadow3002.blogspot.com/2014/04/seo-search-engine-optimization.html
  2. http://www.pojokwebsite.com/pengertian-seo.html



Jumat, 28 Maret 2014

Perkembangan Generasi Komputer

Pengertian komputer

  Komputer adalah alat yang dipakai untuk mengolah data menurut perintah yang telah dirumuskan. Kata komputer semula dipergunakan untuk menggambarkan orang yang perkerjaannya melakukan perhitungan aritmatika, dengan atau tanpa alat bantu, tetapi arti kata ini kemudian dipindahkan kepada mesin itu sendiri. Asal mulanya, pengolahan informasi hampir eksklusif berhubungan dengan masalah aritmatika, tetapi komputer modern dipakai untuk banyak tugas yang tidak berhubungan dengan matematika.
  Secara luas, Komputer dapat didefinisikan sebagai suatu peralatan elektronik yang terdiri dari beberapa komponen, yang dapat bekerja sama antara komponen satu dengan yang lain untuk menghasilkan suatu informasi berdasarkan program dan data yang ada. Adapun komponen komputer adalah meliputi : Layar Monitor, CPU, Keyboard, Mouse dan Printer (sbg pelengkap). Tanpa printer komputer tetap dapat melakukan tugasnya sebagai pengolah data, namun sebatas terlihat dilayar monitor belum dalam bentuk print out (kertas).
  Dalam definisi seperti itu terdapat alat seperti slide rule, jenis kalkulator mekanik mulai dari abakus dan seterusnya, sampai semua komputer elektronik yang kontemporer. Istilah lebih baik yang cocok untuk arti luas seperti "komputer" adalah "yang memproses informasi" atau "sistem pengolah informasi."
Saat ini, komputer sudah semakin canggih. Tetapi, sebelumnya komputer tidak sekecil, secanggih, sekeren dan seringan sekarang. Dalam sejarah komputer, ada 5 generasi dalam sejarah komputer.

Generasi komputer
Generasi pertama
  Dengan terjadinya Perang Dunia Kedua, negara-negara yang terlibat dalam perang tersebut berusaha mengembangkan komputer untuk mengeksploit potensi strategis yang dimiliki komputer. Hal ini meningkatkan pendanaan pengembangan komputer serta mempercepat kemajuan teknik komputer. Pada tahun 1941, Konrad Zuse, seorang insinyur Jerman membangun sebuah komputer, Z3, untuk mendesain pesawat terbang dan peluru kendali.
  Pihak sekutu juga membuat kemajuan lain dalam pengembangan kekuatan komputer. Tahun 1943, pihak Inggris menyelesaikan komputer pemecah kode rahasia yang dinamakan Colossus untuk memecahkan kode rahasia yang digunakan Jerman. Dampak pembuatan Colossus tidak terlalu memengaruhi perkembangan industri komputer dikarenakan dua alasan. Pertama, Colossus bukan merupakan komputer serbaguna(general-purpose computer), ia hanya didesain untuk memecahkan kode rahasia. Kedua, keberadaan mesin ini dijaga kerahasiaannya hingga satu dekade setelah perang berakhir.
  Usaha yang dilakukan oleh pihak Amerika pada saat itu menghasilkan suatu kemajuan lain. Howard H. Aiken (1900-1973), seorang insinyur Harvard yang bekerja dengan IBM, berhasil memproduksi kalkulator elektronik untuk US Navy. Kalkulator tersebut berukuran panjang setengah lapangan bola kaki dan memiliki rentang kabel sepanjang 500 mil. The Harvard-IBM Automatic Sequence Controlled Calculator, atau Mark I, merupakan komputer relai elektronik. Ia menggunakan sinyal elektromagnetik untuk menggerakkan komponen mekanik. Mesin tersebut beropreasi dengan lambat (ia membutuhkan 3-5 detik untuk setiap perhitungan) dan tidak fleksibel (urutan kalkulasi tidak dapat diubah). Kalkulator tersebut dapat melakukan perhitungan aritmatik dasar dan persamaan yang lebih kompleks.
  Perkembangan komputer lain pada masa kini adalah Electronic Numerical Integrator and Computer (ENIAC), yang dibuat oleh kerjasama antara pemerintah Amerika Serikat dan University of Pennsylvania. Terdiri dari 18.000 tabung vakum, 70.000 resistor, dan 5 juta titik solder, komputer tersebut merupakan mesin yang sangat besar yang mengonsumsi daya sebesar 160kW.
Komputer ini dirancang oleh John Presper Eckert (1919-1995) dan John W. Mauchly (1907-1980), ENIAC merupakan komputer serbaguna (general purpose computer) yang bekerja 1000 kali lebih cepat dibandingkan Mark I.
  Pada pertengahan 1940-an, John von Neumann (1903-1957) bergabung dengan tim University of Pennsylvania dalam usaha membangun konsep desain komputer yang hingga 40 tahun mendatang masih dipakai dalam teknik komputer. Von Neumann mendesain Electronic Discrete Variable Automatic Computer (EDVAC) pada tahun 1945 dengan sebuah memori untuk menampung baik program ataupun data. Teknik ini memungkinkan komputer untuk berhenti pada suatu saat dan kemudian melanjutkan pekerjaannya kembali. Kunci utama arsitektur von Neumann adalah unit pemrosesan sentral (CPU), yang memungkinkan seluruh fungsi komputer untuk dikoordinasikan melalui satu sumber tunggal. Tahun 1951, UNIVAC I (Universal Automatic Computer I) yang dibuat oleh Remington Rand, menjadi komputer komersial pertama yang memanfaatkan model arsitektur Von Neumann tersebut.
  Baik Badan Sensus Amerika Serikat dan General Electric memiliki UNIVAC. Salah satu hasil mengesankan yang dicapai oleh UNIVAC dalah keberhasilannya dalam memprediksi kemenangan Dwilight D. Eisenhower dalam pemilihan presiden tahun 1952.
  Komputer Generasi pertama dikarakteristik dengan fakta bahwa instruksi operasi dibuat secara spesifik untuk suatu tugas tertentu. Setiap komputer memiliki program kode biner yang berbeda yang disebut "bahasa mesin" (machine language). Hal ini menyebabkan komputer sulit untuk diprogram dan membatasi kecepatannya. Ciri lain komputer generasi pertama adalah penggunaan tube vakum (yang membuat komputer pada masa tersebut berukuran sangat besar) dan silinder magnetik untuk penyimpanan data.

Generasi kedua
  Pada tahun 1948, penemuan transistor sangat memengaruhi perkembangan komputer. Transistor menggantikan tube vakum di televisi, radio, dan komputer. Akibatnya, ukuran mesin-mesin elektrik berkurang drastis.
  Transistor mulai digunakan di dalam komputer mulai pada tahun 1956. Penemuan lain yang berupa pengembangan memori inti-magnetik membantu pengembangan komputer generasi kedua yang lebih kecil, lebih cepat, lebih dapat diandalkan, dan lebih hemat energi dibanding para pendahulunya. Mesin pertama yang memanfaatkan teknologi baru ini adalah superkomputer. IBM membuat superkomputer bernama Stretch, dan Sprery-Rand membuat komputer bernama LARC. Komputer-komputer ini, yang dikembangkan untuk laboratorium energi atom, dapat menangani sejumlah besar data, sebuah kemampuan yang sangat dibutuhkan oleh peneliti atom. Mesin tersebut sangat mahal dan cenderung terlalu kompleks untuk kebutuhan komputasi bisnis, sehingga membatasi kepopulerannya. Hanya ada dua LARC yang pernah dipasang dan digunakan: satu di Lawrence Radiation Labs di Livermore, California, dan yang lainnya di US Navy Research and Development Center di Washington D.C. Komputer generasi kedua menggantikan bahasa mesin dengan bahasa assembly. Bahasa assembly adalah bahasa yang menggunakan singkatan-singakatan untuk menggantikan kode biner.
  Pada awal 1960-an, mulai bermunculan komputer generasi kedua yang sukses di bidang bisnis, di universitas, dan di pemerintahan. Komputer-komputer generasi kedua ini merupakan komputer yang sepenuhnya menggunakan transistor. Mereka juga memiliki komponen-komponen yang dapat diasosiasikan dengan komputer pada saat ini: printer, penyimpanan dalam disket, memory, sistem operasi, dan program.
Salah satu contoh penting komputer pada masa ini adalah 1401 yang diterima secara luas di kalangan industri. Pada tahun 1965, hampir seluruh bisnis-bisnis besar menggunakan komputer generasi kedua untuk memprosesinformasi keuangan.
  Program yang tersimpan di dalam komputer dan bahasa pemrograman yang ada di dalamnya memberikan fleksibilitas kepada komputer. Fleksibilitas ini meningkatkan kinerja dengan harga yang pantas bagi penggunaan bisnis. Dengan konsep ini, komputer dapat mencetak faktur pembelian konsumen dan kemudian menjalankan desain produk atau menghitung daftar gaji. Beberapa bahasa pemrograman mulai bermunculan pada saat itu. Bahasa pemrograman Common Business-Oriented Language (COBOL) dan Formula Translator (FORTRAN) mulai umum digunakan. Bahasa pemrograman ini menggantikan kode mesin yang rumit dengan kata-kata, kalimat, dan formula matematika yang lebih mudah dipahami oleh manusia. Hal ini memudahkan seseorang untuk memprogram dan mengatur komputer. Berbagai macam karier baru bermunculan (programmer, analis sistem, dan ahli sistem komputer). Industr piranti lunak juga mulai bermunculan dan berkembang pada masa komputer generasi kedua ini.

Generasi ketiga
  Walaupun transistor dalam banyak hal mengungguli tube vakum, namun transistor menghasilkan panas yang cukup besar, yang dapat berpotensi merusak bagian-bagian internal komputer. Batu kuarsa (quartz rock) menghilangkan masalah ini. Jack Kilby, seorang insinyur di Texas Instrument, mengembangkan sirkuit terintegrasi (IC : integrated circuit) pada tahun 1958. IC mengkombinasikan tiga komponen elektronik dalam sebuah piringan silikon kecil yang terbuat dari pasir kuarsa. Pada ilmuwan kemudian berhasil memasukkan lebih banyak komponen-komponen ke dalam suatu chip tunggal yang disebut semikonduktor. Hasilnya, komputer menjadi semakin kecil karena komponen-komponen dapat dipadatkan dalam chip. Kemajuan komputer generasi ketiga lainnya adalah penggunaan sistem operasi (operating system) yang memungkinkan mesin untuk menjalankan berbagai program yang berbeda secara serentak dengan sebuah program utama yang memonitor dan mengkoordinasi memori komputer.

Generasi keempat
  Setelah IC, tujuan pengembangan menjadi lebih jelas: mengecilkan ukuran sirkuit dan komponen-komponen elektrik. Large Scale Integration (LSI) dapat memuat ratusan komponen dalam sebuah chip. Pada tahun 1980-an, Very Large Scale Integration (VLSI) memuat ribuan komponen dalam sebuah chip tunggal.
  Ultra-Large Scale Integration (ULSI) meningkatkan jumlah tersebut menjadi jutaan. Kemampuan untuk memasang sedemikian banyak komponen dalam suatu keping yang berukurang setengah keping uang logam mendorong turunnya harga dan ukuran komputer. Hal tersebut juga meningkatkan daya kerja, efisiensi dan keterandalan komputer. Chip Intel 4004 yang dibuat pada tahun 1971membawa kemajuan pada IC dengan meletakkan seluruh komponen dari sebuah komputer (central processing unit, memori, dan kendali input/output) dalam sebuah chip yang sangat kecil. Sebelumnya, IC dibuat untuk mengerjakan suatu tugas tertentu yang spesifik. Sekarang, sebuah mikroprosesor dapat diproduksi dan kemudian diprogram untuk memenuhi seluruh kebutuhan yang diinginkan. Tidak lama kemudian, setiap piranti rumah tangga seperti microwave, oven, televisi, dan mobil dengan electronic fuel injection (EFI) dilengkapi dengan mikroprosesor.
Perkembangan yang demikian memungkinkan orang-orang biasa untuk menggunakan komputer biasa. Komputer tidak lagi menjadi dominasi perusahaan-perusahaan besar atau lembaga pemerintah. Pada pertengahan tahun 1970-an, perakit komputer menawarkan produk komputer mereka ke masyarakat umum. Komputer-komputer ini, yang disebut minikomputer, dijual dengan paket piranti lunak yang mudah digunakan oleh kalangan awam. Piranti lunak yang paling populer pada saat itu adalah program word processing dan spreadsheet. Pada awal 1980-an, video game seperti Atari 2600 menarik perhatian konsumen pada komputer rumahan yang lebih canggih dan dapat diprogram.
  Pada tahun 1981, IBM memperkenalkan penggunaan Personal Computer (PC) untuk penggunaan di rumah, kantor, dan sekolah. Jumlah PC yang digunakan melonjak dari 2 juta unit pada tahun 1981 menjadi 5,5 juta unit pada tahun 1982. Sepuluh tahun kemudian, 65 juta PC digunakan. Komputer melanjutkan evolusinya menuju ukuran yang lebih kecil, dari komputer yang berada di atas meja (desktop computer) menjadi komputer yang dapat dimasukkan ke dalam tas (laptop), atau bahkan komputer yang dapat digenggam (palmtop).
  IBM PC bersaing dengan Apple Macintosh dalam memperebutkan pasar komputer. Apple Macintosh menjadi terkenal karena memopulerkan sistem grafis pada komputernya, sementara saingannya masih menggunakan komputer yang berbasis teks. Macintosh juga memopulerkan penggunaan piranti mouse.
Pada masa sekarang, kita mengenal perjalanan IBM compatible dengan pemakaian CPU: IBM PC/486, Pentium, Pentium II, Pentium III, Pentium IV (Serial dari CPU buatan Intel). Juga kita kenal AMD k6, Athlon, dsb. Ini semua masuk dalam golongan komputer generasi keempat.
  Seiring dengan menjamurnya penggunaan komputer di tempat kerja, cara-cara baru untuk menggali potensial terus dikembangkan. Seiring dengan bertambah kuatnya suatu komputer kecil, komputer-komputer tersebut dapat dihubungkan secara bersamaan dalam suatu jaringan untuk saling berbagi memori, piranti lunak, informasi, dan juga untuk dapat saling berkomunikasi satu dengan yang lainnya. Jaringan komputer memungkinkan komputer tunggal untuk membentuk kerjasama elektronik untuk menyelesaikan suatu proses tugas. Dengan menggunakan perkabelan langsung (disebut juga Local Area Network atau LAN), atau [kabel telepon, jaringan ini dapat berkembang menjadi sangat besar.

Generasi kelima
  Mendefinisikan komputer generasi kelima menjadi cukup sulit karena tahap ini masih sangat muda. Contoh imajinatif komputer generasi kelima adalah komputer fiksi HAL9000 dari novel karya Arthur C. Clarke berjudul 2001: Space Odyssey. HAL menampilkan seluruh fungsi yang diinginkan dari sebuah komputer generasi kelima. Dengan kecerdasan buatan (artificial intelligence atau AI), HAL dapat cukup memiliki nalar untuk melakukan percapakan dengan manusia, menggunakan masukan visual, dan belajar dari pengalamannya sendiri.
  Walaupun mungkin realisasi HAL9000 masih jauh dari kenyataan, banyak fungsi-fungsi yang dimilikinya sudah terwujud. Beberapa komputer dapat menerima instruksi secara lisan dan mampu meniru nalar manusia. Kemampuan untuk menterjemahkan bahasa asing juga menjadi mungkin. Fasilitas ini tampak sederhana. Namun fasilitas tersebut menjadi jauh lebih rumit dari yang diduga ketika programmer menyadari bahwa pengertian manusia sangat bergantung pada konteks dan pengertian ketimbang sekedar menterjemahkan kata-kata secara langsung.
  Banyak kemajuan di bidang desain komputer dan teknologi yang semakin memungkinkan pembuatan komputer generasi kelima. Dua kemajuan rekayasa yang terutama adalah kemampuan pemrosesan paralel, yang akan menggantikan model non Neumann. Model non Neumann akan digantikan dengan sistem yang mampu mengkoordinasikan banyak CPU untuk bekerja secara serempak. Kemajuan lain adalah teknologi superkonduktor yang memungkinkan aliran elektrik tanpa ada hambatan apapun, yang nantinya dapat mempercepat kecepatan informasi.
  Jepang adalah negara yang terkenal dalam sosialisasi jargon dan proyek komputer generasi kelima. Lembaga ICOT (Institute for new Computer Technology) juga dibentuk untuk merealisasikannya. Banyak kabar yang menyatakan bahwa proyek ini telah gagal, namun beberapa informasi lain bahwa keberhasilan proyek komputer generasi kelima ini akan membawa perubahan baru paradigma komputerisasi di dunia.

Referensi:

1.      http://id.wikipedia.org/wiki/Sejarah_komputer

Pengenalan BioInformatika

  Bioinformatika, sesuai dengan asal katanya yaitu “bio” dan “informatika”, adalah gabungan antara ilmu biologi dan ilmu teknik informasi (TI). Pada umumnya, Bioinformatika didefenisikan sebagai aplikasi dari alat komputasi dan analisa untuk menangkap dan menginterpretasikan data-data biologi. Ilmu ini merupakan ilmu baru yang yang merangkup berbagai disiplin ilmu termasuk ilmu komputer, matematika dan fisika, biologi, dan ilmu kedokteran, dimana kesemuanya saling menunjang dan saling bermanfaat satu sama lainnya.

  Ilmu bioinformatika lahir atas insiatif para ahli ilmu komputer berdasarkan artificial intelligence. Mereka berpikir bahwa semua gejala yang ada di alam ini bisa diuat secara artificial melalui simulasi dari gejala-gejala tersebut. Untuk mewujudkan hal ini diperlukan data-data yang yang menjadi kunci penentu tindak-tanduk gejala alam tersebut, yaitu gen yang meliputi DNA atau RNA. Bioinformatika ini penting untuk manajemen data-data dari dunia biologi dan kedokteran modern. Perangkat utama Bioinformatika adalah program software dan didukung oleh kesediaan internet. Kemajuan ilmu Bioinformatika ini lebih didesak lagi oleh genome project yang dilaksanakan di seluruh dunia dan menghasilkan tumpukan informasi gen dari berbagai makhluk hidup, mulai dari makhluk hidup tingkat rendah sampai makhluk hidup tingkat tinggi. Pada tahun 2001, genom manusia yang terdiri dari 2.91 juta bp (base-pare, pasangan basa) telah selesai dibaca. Baru-baru ini genom mikroba Plasmodium penyebab Malaria dan nyamuk Anopheles yang menjadi vektor mikroba tersebut juga telah berhasil dibaca. Dan masih banyak lagi gen-gen dari makhluk hidup lainnya yang sudah dan sedang dibaca.



  Semua data-data yang dihasilkan dari genome project ini perlu di susun dan disimpan rapi sehingga bisa digunakan untuk berbagai keperluan, baik keperluan penelitian maupun keperluan di bidang medis. Dalam hal ini peranan Bioinformatika merupakan hal yang esensial. Dengan Bioinformatika, data-data ini bisa disimpan dengan teratur dalam waktu yang singkat dan tingkat akurasi yang tinggi serta sekaligus dianalisa dengan program-program yang dibuat untuk tujuan tertentu. Sebaliknya Bioinformatika juga mempercepat penyelesaian genome project ini karena Bioinformatika mensuplay program-program yang diperlukan untuk proses pembacaan genom ini.

  Walaupun manajemen data melalui Bioinformatika ini sangat penting dalam berbagai bidang, penulis akan menfokuskan pembicaraan pada peranan Bioinformatika dalam dunia kedokteran. Dalam tulisan ini akan dibahas secara detil tentang peranan Bioinformatika dalam dunia kedokteran mulai dari penyimpanan data klinis pasien untuk pemberian obat yang cocok dengan pasien tersebut, identifikasi agent penyebab suatu penyakit baru dan penemuan diagnosa untuk penyakit tersebut, sampai pada penemuan obat atau vaksin untuk penanggulangan suatu penyakit.

1. Bioinformatika dalam bidang klinis
  Perananan Bioinformatika dalam bidang klinis ini sering juga disebut sebagai informatika klinis (clinical informatics). Aplikasi dari clinical informatics ini adalah berbentuk manajemen data-data klinis dari pasien melalui Electrical Medical Record (EMR) yang dikembangkan oleh Clement J. McDonald dari Indiana University School of Medicine pada tahun 1972. McDonald pertama kali mengaplikasikan EMR pada 33 orang pasien penyakit gula (diabetes). Sekarang EMR ini telah diaplikasikan pada berbagai penyakit. Data yang disimpan meliputi data analisa diagnosa laboratorium, hasil konsultasi dan saran, foto ronsen, ukuran detak jantung, dll. Dengan data ini dokter akan bisa menentukan obat yang sesuai dengan kondisi pasien tertentu. Lebih jauh lagi, dengan dibacanya genom manusia, akan memungkinkan untuk mengetahui penyakit genetik seseorang, sehingga personal care terhadap pasien menjadi lebih akurat.

  Sampai saat ini telah diketahui beberapa gen yang berperan dalam penyakit tertentu beserta posisinya pada kromosom. Informasi ini tersedia dan bisa dilihat di home page National Center for Biotechnology Information (NCBI) pada seksi Online Mendelian in Man (OMIM) (http://www.ncbi.nlm.nih.gov/entrez/query.fcgi?db=OMIM). OMIM adalah search tool untuk gen manusia dan penyakit genetika. Selain berisikan informasi tentang lokasi gen suatu penyakit, OMIM ini juga menyediakan informasi tentang gejala dan penanganan penyakit tersebut beserta sifat genetikanya. Dengan demikian, dokter yang menemukan pasien yang membawa penyakit genetika tertentu bisa mempelajarinya secara detil dengan mengakses home page OMIM ini.



2. Bio Informatika untuk mendeteksi agent penyakit baru
  Bio Informatika yang digunakan untuk mendeteksi penyebab munculnya penyakit baru yang muncul. Untuk penyakit baru yang muncul misalnya SARS. Pada awalnya penyakit ini disamakan penyebabnya dengan penyakit influenza karena gejala penyakitnya mirip dengan penyakit tersebut. Akan tetapi dugaan ini salah karena virus influenza tidak terisolasi dari pasien. Lalu, muncul perkiraan lain yaitu penyebab penyakit SARS yakni virus Candida karena bakteri ini terisolasi dari beberapa pasien. Namun perkiraan ini juga salah. Akhirnya ditemukan bahwa dari sebagian besar pasien SARS terisolasi virus Corona jika dilihat dari morfologinya. Sekun genom virus ini kemudian dibaca dan dari hasil analisa dikonfirmasikan bahwa penyakit SARS adalah virus Corona yang telah bermutasi dari virus Corona yang selama ini ada.

3. Bio Informatika untuk mendiagnosa penyakit baru
  Untuk menangani penyakit baru diperlukan diagnosa yang akurat sehingga dapat dibedakan dengan penyakit lain. Diagnosa yang akurat ini sangat diperlukan untuk pemberian obat dan perawatan yang tepat bagi pasien. Ada beberapa cara untuk mendiagnosa suatu penyakit, antara lain: isolasi agent penyebab penyakit tersebut dan analisa morfologinya, deteksi antibodi yang dihasilkan dari infeksi dengan teknik enzyme-linked immunosorbent assay (ELISA), dan deteksi gen dari agent pembawa penyakit tersebut dengan Polymerase Chain Reaction (PCR).

  Teknik yang banyak dan lazim dipakai saat ini adalah teknik PCR. Teknik ini sederhana, praktis dan cepat. Yang penting dalam teknik PCR adalah disain primer untuk amplifikasi DNA, yang memerlukan data sekuen dari genom agent yang bersangkutan dan software seperti yang telah diuraikan di atas. Disinilah Bio Informatika memainkan peranannya. Untuk agent yang mempunyai genom RNA, harus dilakukan reverse transcription (proses sintesa DNA dari RNA) terlebih dahulu dengan menggunakan enzim reverse transcriptase. Setelah DNA diperoleh baru dilakukan PCR. Reverse transcription dan PCR ini bisa dilakukan sekaligus dan biasanya dinamakan RT-PCR.

  Teknik PCR ini bersifat kualitatif, oleh sebab itu sejak beberapa tahun yang lalu dikembangkan teknik lain, yaitu Real Time PCR yang bersifat kuantitatif. Dari hasil Real Time PCR ini bisa ditentukan kuantitas suatu agent di dalam tubuh seseorang, sehingga bisa dievaluasi tingkat emergensinya. Pada Real Time PCR ini selain primer diperlukan probe yang harus didisain sesuai dengan sekuen agent yang bersangkutan.

4. Bio Informatika untuk Penemuan Obat
  Cara untuk menemukan obat biasanya dilakukan dengan menemukan zat/senyawa yang dapat menekan perkembangbiakan suatu agent penyebab penyakit. Karena perkembangbiakan agent tersebut dipengaruhi oleh banyak faktor, maka faktor-faktor inilah yang dijadikan target. Diantaranya adalah enzim-enzim yang diperlukan untuk perkembangbiakan suatu agent Mula-mula yang harus dilakukan adalah analisa struktur dan fungsi enzim-enzim tersebut. Kemudian mencari atau mensintesa zat/senyawa yang dapat menekan fungsi dari enzim-enzim tersebut.
  Analisa struktur dan fungsi enzim ini dilakukan dengan cara mengganti asam amino tertentu dan menguji efeknya. Analisa penggantian asam amino ini dahulu dilakukan secara random sehingga memerlukan waktu yang lama. Setelah Bio Informatika berkembang, data-data protein yang sudah dianalisa bebas diakses oleh siapapun, baik data sekuen asam amino-nya seperti yang ada di SWISS-PROT (http://www.ebi.ac.uk/swissprot/) maupun struktur 3D-nya yang tersedia di Protein Data Bank (PDB) (http://www.rcsb.org/pdb/). Dengan database yang tersedia ini, enzim yang baru ditemukan dapat dibandingkan sekuen asam amino-nya, sehingga bisa diperkirakan asam amino yang berperan untuk aktivitas (active site) dan kestabilan enzim tersebut.
  Setelah asam amino yang berperan sebagai active site dan kestabilan enzim tersebut ditemukan, kemudian dicari atau disintesa senyawa yang dapat berinteraksi dengan asam amino tersebut. Dengan data yang ada di PDB, maka dapat dilihat struktur 3D suatu enzim termasuk active site-nya, sehingga bisa diperkirakan bentuk senyawa yang akan berinteraksi dengan active site tersebut. Dengan demikian, kita cukup mensintesa senyawa yang diperkirakan akan berinteraksi, sehingga obat terhadap suatu penyakit akan jauh lebih cepat ditemukan. Cara ini dinamakan “docking” dan telah banyak digunakan oleh perusahaan farmasi untuk penemuan obat baru. Meskipun dengan Bio Informatika ini dapat diperkirakan senyawa yang berinteraksi dan menekan fungsi suatu enzim, namun hasilnya harus dikonfirmasi dahulu melalui eksperimen di laboratorium. Akan tetapi dengan Bio Informatika, semua proses ini bisa dilakukan lebih cepat sehingga lebih efisien baik dari segi waktu maupun finansial. 

Referensi:
1. http://nevermind86.wordpress.com/2011/04/30/pengantar-bio-informatika/