Ancak bu satır o zamandan beri silinmiş durumda. İlk olarak The Intercept tarafından fark edildiği gibi şirket, değişiklik günlüğünde belirtildiği gibi “daha net olmak ve hizmete özel daha fazla rehberlik sağlamak için” sayfayı 10 Ocak’ta güncelledi. Zarar verebilecek herhangi bir şey için büyük dil modellerinin (LLM’ler) kullanımını hala yasaklıyor ve insanları, hizmetlerini “silah geliştirmek veya kullanmak” için kullanmamaları konusunda uyarıyor. Ancak şirket “askeri ve savaş” ile ilgili ifadeyi kaldırdı.
Henüz gerçek hayattaki etkilerini görmemiş olsak da, ifadelerdeki bu değişiklik tam da dünya çapındaki askeri kurumların yapay zeka kullanımına ilgi göstermesiyle ortaya çıkıyor.
Yapay zekanın savaş için kullanılması için ilk yeşil ışık OpenAI’den geldi!
AI Now genel müdürü Sarah Myers West, “Gazze’deki sivillerin hedef alınmasında yapay zeka sistemlerinin kullanımı göz önüne alındığında, ‘askeri ve savaş’ kelimelerini OpenAI’nin izin verilen kullanım politikasından çıkarma kararı almak kayda değer bir an” dedi.
Yasaklanan kullanımlar listesinde “askeri ve savaş” ifadesinin açıkça belirtilmesi, OpenAI’nin genellikle yüklenicilere kazançlı anlaşmalar sunan Savunma Bakanlığı gibi devlet kurumlarıyla çalışamayacağını gösterdi. Şirketin şu anda kimseyi doğrudan öldürebilecek veya fiziksel zarar verebilecek bir ürünü bulunmuyor. Ancak The Intercept’in söylediği gibi teknolojisi, kod yazmak ve insanları öldürmek için kullanılabilecek şeyler için satın alma emirlerini işlemek gibi görevlerde kullanılabilir.