Sejarah Mendalam Kecerdasan Buatan (AI) dari Filsafat ke Era Deep Learning

Sejarah Mendalam Kecerdasan Buatan (AI) dari Filsafat ke Era Deep Learning
Sejarah Mendalam Kecerdasan Buatan (AI) dari Filsafat ke Era Deep Learning

Upaya lanjutan dilakukan oleh Alfred North Whitehead dan Bertrand Russell melalui karya monumental Principia Mathematica, yang berambisi merumuskan seluruh pengetahuan logis manusia ke dalam sistem simbolik. Namun, ambisi tersebut kemudian dipatahkan oleh Kurt Gödel melalui Teorema Ketidaklengkapan (1931), yang membuktikan bahwa tidak ada sistem logika yang sepenuhnya lengkap dan bebas dari kontradiksi.

Di dekade 1930-an, Alan Turing memperkenalkan konsep Turing Machine dan Tes Turing, yang hingga kini masih menjadi tolok ukur filosofis kecerdasan mesin. Menariknya, prinsip Tes Turing kini dapat ditemukan secara praktis dalam sistem verifikasi seperti CAPTCHA, pengalaman yang akrab bagi pengguna internet modern.

Baca Juga  Samsung Gandakan Galaxy AI: Visi Baru Menuju 800 Juta Perangkat di Tahun 2026

Fondasi lain diperkuat oleh Claude Shannon dengan Teori Informasi dan John von Neumann dengan arsitektur komputer modern, yang memisahkan perangkat keras dan perangkat lunak—konsep fundamental yang masih digunakan hingga saat ini.

Gelombang Pertama AI: Kelahiran Istilah dan Optimisme Awal (1950-an)

Memasuki era pasca Perang Dunia II, komputer digital mulai digunakan secara luas. Momentum ini mencapai puncaknya pada 1956, ketika John McCarthy memperkenalkan istilah Artificial Intelligence dalam pertemuan ilmiah di Dartmouth.

Bersama tokoh-tokoh seperti Marvin Minsky, Herbert Simon, Allen Newell, dan Edward Feigenbaum, AI dipandang sebagai bidang yang mampu membuat mesin “berpikir” seperti manusia.

Baca Juga  Snapdragon 8 Gen 5 vs 8 Elite: Perbandingan Lengkap Chipset Flagship Qualcomm

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *