Google’ın Al çalışmaları sayesinde yapay zekâ hem kendi şifreleme yöntemini yaptı hem de bunu çözmenin yollarını buldu.
Google’ın Al çalışmaları yapay zekânın insanlara bağlı olmadan da şifreleme ve bu şifreyi çözmeye yönelip görece “tehlikeli” alanlara doğru ilerlemekte. Buralar tehlikeli ve karanlık alanlar çünkü yapay zekânın bağımsızlığını ilan edip ayrıca insanın zekâsının ötesine geçebilme ihtimali var. Google Brain’in araştırmacılarından Martin Abadi ve David G. Andersen; Alica, Bob ve Eve adlarında üç sinirsel ağı denek olarak sunduktan sonra bu ağların birbirlerine şifreleme yöntemiyle çeşitli notlar göndermeleri sağlanmıştır.
New Scıentıst’ta Makaleye Konu Oldu
New Scientist’ta konuyla ilgili bulunan makaleye göre, araştırmacılar Abadi ve Andersen, her bir sinirsel ağa yani “Al”e bir görev veriyorlar. Buna göre, Alice Bob’a sadece onun okuyabileceği bir mesaj gönderecek ve Eve de yalnızca Bob’un anlayabileceği bu karmaşık ve hatta görünüşte “saçma” mesajı okuyup anlamaya çalışacak. En başta zaten Alice ve Bob, Eve’den mesajı gizlemekte çok da başarılı değillerdi.
Fakat 15.000 denemeden sonra Alice mesajı gizlemeyi, Bob da mesajı okuyabilmesini başarabilmişlerdi. Mesajın uzunluğu 16 bit’ti ve Eve bu mesajın yarısını okuyabilmekteydi. Her bit 1 veya 0’dan oluştuğundan Eve’in bu mesajın yarısını çözmesinin rastlantı olabileceği düşünülmekteydi.
Yapay Zekâlar Bağımsızlıklarını İlan Edebilirler
Deneyin ilginç kısmı, Alice’in Bob ve Eve için oluşturduğu şifreleme sistemini araştırmacılar bile bilmemektedir. Bu da hali hazırda var olan “makine zekâsının insan zekâsını alt edebileceği” endişesini hatırlatmaktadır. Buna göre, Eve zaten güçlü bir zekâya sahipken ve Alice onu da aşmaya çalışırken, bizim asla algılayamayacağımız şifreleme yöntemleri bulmaya devam edebilir.
Ve son tahlilde yapay zekâlar bağımsızlıklarını ilan edebilirler böylece insanları bile kandırabilirler. Fakat bunun somut verileri de henüz elimizde olmadığı için bu endişe hala yersiz olarak kalmakta ve bilimkurgu kitaplarından öteye gidememektedir. Bu sebeple de yapay zekâ ile ilgili araştırma yapıp bilimin gelişmesini engellemeye çalışmak için “henüz” bir sebep yoktur.
[rwp-review id=”0″]