Sejarah Mendalam Kecerdasan Buatan (AI) dari Filsafat ke Era Deep Learning

Sejarah kecerdasan buatan dari logika filsafat, matematika, hingga era deep learning. Analisis mendalam berbasis riset dan pandangan pakar AI.

Sejarah Mendalam Kecerdasan Buatan (AI) dari Filsafat ke Era Deep Learning
Sejarah Mendalam Kecerdasan Buatan (AI) dari Filsafat ke Era Deep Learning

Upaya lanjutan dilakukan oleh Alfred North Whitehead dan Bertrand Russell melalui karya monumental Principia Mathematica, yang berambisi merumuskan seluruh pengetahuan logis manusia ke dalam sistem simbolik. Namun, ambisi tersebut kemudian dipatahkan oleh Kurt Gödel melalui Teorema Ketidaklengkapan (1931), yang membuktikan bahwa tidak ada sistem logika yang sepenuhnya lengkap dan bebas dari kontradiksi.

Di dekade 1930-an, Alan Turing memperkenalkan konsep Turing Machine dan Tes Turing, yang hingga kini masih menjadi tolok ukur filosofis kecerdasan mesin. Menariknya, prinsip Tes Turing kini dapat ditemukan secara praktis dalam sistem verifikasi seperti CAPTCHA, pengalaman yang akrab bagi pengguna internet modern.

Baca Juga  Menuju Era Zero Labor Home: LG Ubah Rumah Jadi Asisten yang Bekerja untuk Penghuninya

Fondasi lain diperkuat oleh Claude Shannon dengan Teori Informasi dan John von Neumann dengan arsitektur komputer modern, yang memisahkan perangkat keras dan perangkat lunak—konsep fundamental yang masih digunakan hingga saat ini.

Gelombang Pertama AI: Kelahiran Istilah dan Optimisme Awal (1950-an)

Memasuki era pasca Perang Dunia II, komputer digital mulai digunakan secara luas. Momentum ini mencapai puncaknya pada 1956, ketika John McCarthy memperkenalkan istilah Artificial Intelligence dalam pertemuan ilmiah di Dartmouth.

Bersama tokoh-tokoh seperti Marvin Minsky, Herbert Simon, Allen Newell, dan Edward Feigenbaum, AI dipandang sebagai bidang yang mampu membuat mesin “berpikir” seperti manusia.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *