İstanbul, 18 Kasım (Hibya) - ABD merkezli yapay zeka startup şirketi Anthropic'in CEO'su Dario Amodei, yapay zeka şirketlerinin riskler konusunda net olmaları gerektiğini vurguladı ve aksi takdirde tütün sektörünün hatalarını tekrarlayacakları uyarısı yaptı.
Yapay zeka şirketlerinin, ürünlerinin oluşturduğu riskler konusunda şeffaf olmaları gerektiğine, aksi takdirde tütün ve opioid şirketlerinin hatalarını tekrarlamakla karşı karşıya kalacaklarına dikkat çeken Amodei, yapay zekanın “çoğu veya tüm insanlardan çoğu veya tüm yönlerden” daha akıllı hale geleceğine inandığını söyledi ve meslektaşlarını “gördüklerini olduğu gibi söylemeye” çağırdı.
The Guardian'ın haberine göre, Claude chatbot'un arkasındaki ABD şirketini yöneten Dario Amodei, güçlü yapay zekanın etkisi konusunda şeffaflık eksikliğinin, kendi ürünlerinin potansiyel sağlık zararları konusunda uyarıda bulunmayan sigara ve opioid şirketlerinin hatalarını tekrarlamasına neden olacağını söyledi ve ekledi:
“Sigara şirketleri veya opioid şirketleri gibi, tehlikelerin farkında oldukları halde bunları konuşmayan ve kesinlikle önlemeye çalışmayan bir dünyaya düşebilirsiniz.”.
Amodei, bu yıl yapay zekanın beş yıl içinde tüm giriş seviyesi beyaz yakalı işlerin (muhasebe, hukuk ve bankacılık gibi ofis işleri) yarısını ortadan kaldırabileceği konusunda uyardı ve “Müdahale olmazsa, bunun işler üzerinde önemli bir etkisi olmayacağını düşünmek zor. Benim endişem, bu etkinin geniş kapsamlı ve önceki teknolojilerde gördüğümüzden daha hızlı olacağıdır” dedi.
Amodei, AI'nın önceki on yıllara göre çok daha kısa sürede bilimsel atılımlar gerçekleştirebileceğini anlatmak için “sıkıştırılmış 21. yüzyıl” ifadesini kullandığını söyledi ve “İlerleme hızını 10 katına çıkararak, 21. yüzyıl boyunca gerçekleşecek tüm tıbbi ilerlemeleri 5 veya 10 yıla sıkıştırabilir miyiz?” diye sordu.
CBS'e konuşan Amodei, “Modellerin olumlu yönde etkili olan özelliklerinden biri, kendi başlarına hareket edebilme yetenekleridir. Ancak bu sistemlere ne kadar çok özerklik verirsek, onların tam olarak istediğimiz şeyleri yapıp yapmadıkları konusunda o kadar çok endişeleniriz” dedi.
Anthropic'in AI modellerini stres testine tabi tutan ekibinin başkanı Logan Graham, bir modelin sağlık alanında çığır açan keşifler yapma yeteneğinin diğer yüzünün biyolojik silahların geliştirilmesine yardımcı olabileceğini söyledi ve “Örneğin, model biyolojik bir silahın geliştirilmesine yardımcı olabiliyorsa, bu genellikle modelin aşıların geliştirilmesine ve tedavilerin hızlandırılmasına yardımcı olmak için kullanabileceği yeteneklerle aynıdır” dedi.
Graham, kullanıcıların yapay zeka araçlarının işlerine yardımcı olmasını, onları mahvetmesini istemediğini söyledi ve ekledi:
“Bir modelin işinizi kurmasını ve size milyarlar kazandırmasını istersiniz. Ancak bir gün uyanıp, örneğin modelin sizi şirketten dışladığını görmek istemezsiniz. Bu nedenle, bu konudaki temel yaklaşımımız, bu otonom yetenekleri ölçmeye başlamalı ve mümkün olduğunca çok sayıda garip deney yapmalı ve ne olacağını görmeliyiz.”