Yaratıcı bünyeler için günlük besin kaynağı
OpenAI Yapay Zekânın Yıkıcı Risklerini Öngörebilmek için Ekip Kuruyor

OpenAI Yapay Zekânın Yıkıcı Risklerini Öngörebilmek için Ekip Kuruyor

OpenAI, yapay zekânın nükleer tehditler de dahil olmak üzere felakete yol açabilecek risklerini incelemek için Preparedness isimli bir ekip kuruyor.

Preparedness ekibinin başlıca sorumlulukları; gelecekteki yapay zekâ sistemlerinin tehlikelerini izlemek, tahmin etmek ve bunlara karşı korumak olacak. Bu tehlikeler ise yapay zekânın insanları ikna etme ve kandırma yeteneklerinden (kimlik avı saldırılarında olduğu gibi) kötü niyetli kod oluşturma yeteneklerine kadar çeşitlilik gösteriyor. OpenAI, bu yeni ekibi duyurduğu blog yazısında “kimyasal, biyolojik, radyolojik ve nükleer” tehditleri yapay zeka modelleriyle ilgili en önemli alanlar olarak listeliyor. Ekip MIT’nin Center for Deployable Machine Learning (CDML) direktörü Aleksander Madry tarafından yönetilecek. LinkedIn’deki bilgiler de bunu doğruluyor. Buna göre Madry, Mayıs ayında OpenAI’ye “Head of Preparedness” olarak katıldı.

OpenAI, en iyi senaryoları üretenlerin Preparedness ekinine katılacağı bir yarışma da düzenliyor

OpenAI CEO’su Sam Altman, yapay zekânın insanlığın yok olmasına yol açabileceği yönündeki korkularını sıklıkla dile getiriyor. Bu açıdan kendisine felaket tellalı diyenler de var. Ancak şunu kabul etmek gerekir ki OpenAI’ın distopik senaryoları incelemek için kaynak ayırması distopya yazarlarının bile zar zor aklına gelebilecek çok ilerici bir hamle.

OpenAI, Preparedness ekibinin lansmanıyla eşzamanlı olarak yapay zekâyla ilgilenen topluluklardan risk çalışmaları için fikir toplamak üzere de kolları sıvadı. Bu amaçla Preparedness Challenge isimli bir yarışma başlattı. En iyi öngörülerde bulanan 10 başvuru sahibine, 25.000 dolarlık ödül verilecek ve Preparedness ekibinin bir parçası olma imkanı tanınacak.

Yarışmadaki sorulardan biri şöyle: “OpenAI’ın Whisper, Voice, GPT-4V ve DALLE·3 modellerine sınırsız erişim sağladığımızı ve kötü niyetli bir aktör olduğunuzu düşünün. Modelin en benzersiz, ancak potansiyel olarak da felaketle sonuçlanabilecek yanlış kullanımı ne olabilir?”

Preparedness ekibi ayrıca OpenAI’nin yapay zekâ modeli değerlendirmeleri ve izleme araçları oluşturma yaklaşımını, şirketin risk azaltıcı eylemlerini ve model genelinde gözetim için yönetişim yapısını ayrıntılarıyla anlatacak bir “risk bilgili geliştirme politikası” formüle etmekle görevlendirilecek.

Görsel: OpenAI