Birleşik Krallık hükümetinin bilimsel araştırma ajansı Aria’da program direktörü olarak görev yapan Dalrymple, Guardian’a verdiği demeçte, yapay zekânın hızla artan yeteneklerinin ciddiye alınması gerektiğini söyledi.
“İnsanların, dünyada işleri yürütmek için yapılan tüm işlevleri daha iyi yerine getirebilen sistemler konusunda endişelenmesi gerekiyor,” diyen Dalrymple, bu durumun insanlığın toplum, ekonomi ve gezegen üzerindeki kontrolünü zayıflatabileceğini belirtti.

KAMU İLE ÖZEL SEKTÖR ARASINDA “ANLAYIŞ BOŞLUĞU”

Dalrymple, kamu kurumları ile yapay zekâ şirketleri arasında, yaklaşan teknolojik atılımların gücüne dair ciddi bir anlayış farkı bulunduğunu savundu.
“İşler çok hızlı ilerliyor ve güvenlik açısından bunun önüne geçmek için zamanımız olmayabilir,” diyen Dalrymple, beş yıl içinde ekonomik olarak en değerli işlerin büyük bölümünün makineler tarafından, insanlardan daha düşük maliyetle ve daha yüksek kaliteyle yapılmasının bilim kurgu olmadığını vurguladı.

“BU SİSTEMLERİN GÜVENİLİR OLDUĞUNU VARSAYAMAYIZ”

Dalrymple, hükümetlerin gelişmiş yapay zekâ sistemlerini varsayılan olarak güvenilir kabul etmemesi gerektiğini söyledi. Kamu kaynaklarıyla finanse edilen ancak hükümetten bağımsız çalışan Aria’nın, özellikle enerji şebekeleri gibi kritik altyapılarda yapay zekâ kullanımını güvence altına alacak sistemler geliştirdiğini aktardı.
“Ekonomik baskılar nedeniyle gerekli bilimsel çalışmaların zamanında yapılması pek olası değil. Bu yüzden yapabileceğimiz en gerçekçi şey, olumsuz etkileri kontrol altına almak ve azaltmak,” dedi.

“İSTİKRARSIZLAŞTIRICI AMA KAÇINILMAZ BİR İLERLEME”

Teknolojik ilerlemenin güvenliğin önüne geçmesinin sonuçlarını “güvenlik ve ekonomik istikrarsızlık” olarak tanımlayan Dalrymple, gelişmiş yapay zekâ sistemlerinin davranışlarını anlamak ve kontrol edebilmek için daha fazla teknik çalışmaya ihtiyaç olduğunu söyledi.
Dalrymple, “Bu geçiş potansiyel olarak olumlu olabilir, ancak son derece yüksek riskli. İnsan uygarlığı bu sürece büyük ölçüde uykuda yakalanıyor,” ifadelerini kullandı.

AISI: YETENEKLER HER SEKİZ AYDA BİR İKİYE KATLANIYOR

Bu ay İngiliz hükümetine bağlı Yapay Zekâ Güvenlik Enstitüsü (AISI), gelişmiş yapay zekâ modellerinin yeteneklerinin tüm alanlarda hızla ilerlediğini açıkladı. Enstitüye göre bazı alanlardaki performans artışı her sekiz ayda bir iki katına çıkıyor.

ÇIRAK SEVİYESİNDEN UZMAN GÖREVLERE

AISI verilerine göre, önde gelen yapay zekâ modelleri artık çırak seviyesindeki görevleri ortalama yüzde 50 başarıyla yerine getirebiliyor. Bu oran geçen yıl yaklaşık yüzde 10 seviyesindeydi. En gelişmiş sistemlerin, bir insan uzmanının bir saatten uzun sürede tamamlayacağı görevleri otonom biçimde gerçekleştirebildiği de tespit edildi.

KENDİ KENDİNİ KOPYALAMA ENDİŞESİ

Enstitü, önemli bir güvenlik riski olarak görülen kendi kendini çoğaltma yeteneğini de test etti. Testler, iki gelişmiş modelin bu alanda yüzde 60’ın üzerinde başarı oranına ulaştığını gösterdi.
Ancak AISI, gerçek dünya koşullarında bu tür girişimlerin başarılı olma ihtimalinin düşük olduğunu vurguladı.

“2026’DA YAPAY ZEKÂ KENDİ GELİŞTİRMESİNİ HIZLANDIRABİLİR”

Dalrymple’a göre, yapay zekâ sistemleri 2026’nın sonlarına doğru tam gün süren araştırma ve geliştirme çalışmalarını otomatikleştirebilecek seviyeye ulaşabilir. Bu durumun, yapay zekânın matematik ve bilgisayar bilimi alanlarında kendini geliştirmesiyle birlikte, yeteneklerin daha da hızlanmasına yol açabileceği belirtiliyor.