Bir Çalışma, Yapay Zeka Modellerinin Nesnelerin İnsan Kavramsal Anlayışını Taklit Ettiğini Gösteriyor

Düzenleyen: Vera Mo

Çinli araştırmacılar tarafından yapılan yakın tarihli bir çalışma, çok modlu dil modellerinin (LLM'ler) nesnelerin insanlara benzer kavramsal temsillerini kendiliğinden geliştirebildiğini göstermiştir.

Araştırmacılar, köpekler, sandalyeler, elmalar ve arabalar gibi 1.854 çeşitli nesne hakkında yapay zekalar tarafından oluşturulan yaklaşık 4,7 milyon yanıtı analiz ettiler. İncelenen modeller arasında yalnızca metin üzerinde çalışan ChatGPT-3.5 ve hem görüntüleri hem de metni işleyebilen çok modlu bir model olan Gemini Pro Vision yer alıyordu.

Sonuçlar, bu yapay zekaların bu nesneleri, "yiyecek" veya "mobilya" gibi basit klasik kategorileri aşan 66 kavramsal boyutta düzenlediğini ortaya koydu. Bu boyutlar, doku, duygusal alaka düzeyi veya çocuklar için uygunluk gibi ince nitelikleri içerir. Başka bir deyişle, bu yapay zekalar, nesnelerin mekanik olarak düzenlenmediği, beynimizin dünyayı sıralama şekline benzeyen karmaşık kriterlere göre sınıflandırıldığı sofistike bir zihinsel harita oluşturuyor gibi görünüyor.

Çalışma ayrıca, yapay zeka modellerinin ve insan beyninin aynı nesnelere nasıl tepki verdiğini karşılaştırdı. Sonuçlar, beyin aktivitesinin belirli alanlarının, yapay zekaların nesneler hakkında "düşündükleri" ile örtüştüğünü gösterdi. Bu yakınsama, görsel ve anlamsal işlemeyi birleştiren ve böylece insanların çevrelerini anlamak için duyularını birleştirme biçimini taklit eden çok modlu modellerde daha da belirgindir.

Ancak, bu yapay zekaların duyusal veya duygusal deneyimlere sahip olmadığını belirtmek önemlidir. Onların "anlayışı", tanımladıkları şeyi hissetmeden, karmaşık kalıpları tanımladıkları ve çoğalttıkları verilerin istatistiksel işlenmesinden kaynaklanmaktadır. Bu, sofistike tanıma ile gerçek bilinçli biliş arasındaki tüm nüanstır.

Bununla birlikte, bu çalışma bizi mevcut yapay zekaların neler yapabileceğine dair sınırları yeniden düşünmeye davet ediyor. Bu modellerin kendiliğinden karmaşık kavramsal temsiller oluşturmayı başarması, zekayı taklit etmek ile işlevsel bir zeka biçimine sahip olmak arasındaki sınırın düşündüğümüzden daha az net olduğunu gösterebilir.

Felsefi tartışmaların ötesinde, bu gelişme robotik, eğitim ve insan-makine işbirliği için somut sonuçlar doğurmaktadır. Bizim gibi nesneleri ve kavramları entegre edebilen bir yapay zeka, daha doğal bir şekilde etkileşim kurabilir, ihtiyaçlarımızı tahmin edebilir ve benzeri görülmemiş durumlara daha iyi uyum sağlayabilir.

Özetle, ChatGPT gibi büyük dil modelleri, basit dil taklitçilerinden çok daha fazlasıdır. İnsan bilişine yakın, devasa verilerden oluşturulmuş ve karmaşık bilgileri entegre edebilen bir dünya temsili biçimine sahip olabilirler. Ancak, bu makineler bugün, bilgiyi doğrudan deneyimlemeden, bilgiyi organize etme şeklimizi yansıtan sofistike aynalar olarak kalıyor. Bizim gibi hissetmiyorlar, yaşamıyorlar, düşünmüyorlar, ancak bir gün bizi oraya götürebilir, giderek daha akıllı ve sezgisel yapay zekaların yolunu açabilirler.

Kaynaklar

  • Sciencepost

  • Multimodal LLMs Can Develop Human-like Object Concept Representations: Study

  • Chinese scientists confirm AI capable of spontaneously forming human-level cognition

  • Multimodal LLMs and the human brain create object representations in similar ways, study finds

Bir hata veya yanlışlık buldunuz mu?

Yorumlarınızı en kısa sürede değerlendireceğiz.