Ana Sayfa Teknoloji Sam Altman: Bir sonraki OpenAI modeli öncelikle ABD Hükümeti tarafından güvenlik kontrollerinden...

Sam Altman: Bir sonraki OpenAI modeli öncelikle ABD Hükümeti tarafından güvenlik kontrollerinden geçecek

39
0

Sektör lideri AI kapsamına ilişkin en son güncellemeler ve özel içerikler için günlük ve haftalık bültenlerimize katılın. Daha Fazla Bilgi Edinin


Gelişmiş istihbarat sistemlerinin güvenliğine ilişkin artan endişeler arasında, Açık AI Şirketin CEO’su Sam Altman, şirketin bir sonraki büyük üretken yapay zeka modelinin güvenlik kontrolleri için ilk önce ABD hükümetine gideceğini söyledi.

Altman, X’te paylaştığı gönderide şirketin, bir sonraki temel modeline erken erişim sağlamak ve yapay zeka değerlendirmelerinin bilimini ilerletmek için iş birliği yapmak amacıyla federal bir hükümet organı olan ABD Yapay Zeka Güvenlik Enstitüsü ile bir anlaşma üzerinde çalıştığını belirtti.

OpenAI patronu ayrıca şirketin karalama karşıtı politikalarını değiştirdiğini, mevcut ve eski çalışanların şirket ve çalışmaları hakkında endişelerini özgürce dile getirmelerine olanak tanıdığını ve hesaplama kaynaklarının en az %20’sini güvenlik araştırmalarına ayırmaya kararlı olduğunu vurguladı.

ABD senatörlerinden OpenAI’yi sorgulayan mektup

OpenAI, ChatGPT’nin ve şirketin geliştirdiği tüm temel mannequin ailesinin becerisi sayesinde AI sektöründe başvurulan bir isim haline geldi. Altman liderliğindeki laboratuvar agresif bir şekilde yeni ve çok yetenekli ürünler ortaya koydu (Google’a SearchGPT ile meydan okudular) ancak hızlı tempolu yaklaşım, kendi eski güvenlik ortak liderleri de dahil olmak üzere birçok kişinin gelişmiş AI araştırmasının güvenlik yönünü görmezden geldiğini iddia etmesiyle eleştirilere de maruz kaldı.

Endişeler ışığında, beş ABD senatörü yakın zamanda Altman’a bir mektup yazarak OpenAI’nin güvenliğe olan bağlılığını ve istihdam sözleşmesindeki karalama yasağı maddesi uyarınca endişelerini kamuoyuna duyuran eski çalışanlara karşı olası misilleme durumlarını sorguladı.

“OpenAI, yapay zekanın (YZ) kamu yararına güvenli, emniyetli ve sorumlu bir şekilde geliştirilmesine yönelik rehber bir taahhüt duyurdu. Bu raporlar, OpenAI’nin ortaya çıkan güvenlik endişelerini nasıl ele aldığına dair soruları gündeme getiriyor,” senatörler yazdı.

Binaen Bloomberg’eOpenAI’nin baş strateji sorumlusu Jason Kwon yakın zamanda şirketin tüm insanlığa fayda sağlayan yapay zeka geliştirme konusundaki kararlılığını teyit eden bir mektupla yanıt verdi. Ayrıca laboratuvarın sürecin her aşamasında “titiz güvenlik protokolleri uygulamaya” adanmış olduğunu söyledi.

Atılan adımlar arasında, OpenAI’nin bilgi işlem kaynaklarının %20’sini güvenlik araştırmalarına ayırma planı (ilk olarak geçen temmuz ayında duyurulmuştu), mevcut ve eski çalışanların endişelerini rahatça dile getirebilmelerini sağlamak için istihdam sözleşmelerindeki karalama yasağı maddesinin iptal edilmesi ve güvenli mannequin sürümleri konusunda iş birliği yapmak için AI Güvenlik Enstitüsü ile ortaklık kurulması yer aldı.

Altman daha sonra aynı şeyi X konusunda da tekrarladı ancak özellikle AI Güvenlik Enstitüsü’nde devam eden çalışmalar hakkında çok fazla ayrıntı paylaşmadı.

Hükümet organı, içinde yer alan Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), geçen yıl İngiltere AI Güvenlik Zirvesi’nde, ulusal güvenlik, kamu güvenliği ve bireysel haklar dahil olmak üzere gelişmiş AI ile ilişkili riskleri ele alma misyonuyla duyuruldu. Bunu başarmak için Meta, Apple, Amazon, Google ve tabii ki OpenAI dahil olmak üzere 100’den fazla teknoloji endüstrisi şirketinden oluşan bir konsorsiyumla çalışıyor.

Ancak, ABD hükümetinin erken erişime sahip olan tek hükümet olmadığını belirtmek önemlidir. OpenAI’nin de İngiltere hükümetiyle modellerinin güvenlik taraması için benzer bir anlaşması vardır.

Güvenlik endişeleri Mayıs ayında artmaya başladı

OpenAI’ye yönelik güvenlik endişeleri, süper zeki yapay zeka modellerini kontrol etmek için güvenlik sistemleri ve süreçleri oluşturmak üzere çalışan OpenAI’nin süper hizalama ekibinin iki eş lideri olan Ilya Sutskever ve Jan Leike’nin birkaç saat içinde istifa etmesiyle Mayıs ayının başlarında artmaya başladı.

Özellikle Leike, ayrılışı konusunda sesini yükseltti ve şirketin “güvenlik kültürü ve süreçlerinin parlak ürünler karşısında ikinci planda kaldığını” belirtti.

Ayrılışlardan kısa bir süre sonra, süper hizalama ekibinin de dağıtıldığına dair raporlar ortaya çıktı. Ancak OpenAI, güven ve emniyet cephesinde şirket içi araştırma ve çabaları paylaşırken ürün sürümlerinin telaşını sürdürerek yılmadan yoluna devam etti. Hatta şirketin süreçlerini ve güvenlik önlemlerini gözden geçirme sürecinde olan yeni bir emniyet ve güvenlik komitesi bile kurdu.

Komiteye Bret Taylor (OpenAI yönetim kurulu başkanı ve müşteri hizmetleri girişimi Sierra AI’nın kurucu ortağı), Adam D’Angelo (Quora’nın CEO’su ve AI mannequin toplayıcı uygulaması Poe), Nicole Seligman (eski Sony Corporation’ın başkan yardımcısı ve küresel genel danışmanı) ve Sam Altman (şu anki OpenAI CEO’su ve kurucu ortaklarından biri).


Kaynak