Ancak bu satır o vakitten beri silinmiş durumda. Birinci olarak The Intercept tarafından fark edildiği üzere şirket, değişiklik günlüğünde belirtildiği üzere “daha net olmak ve hizmete özel daha fazla rehberlik sağlamak için” sayfayı 10 Ocak’ta güncelledi. Ziyan verebilecek rastgele bir şey için büyük lisan modellerinin (LLM’ler) kullanımını hala yasaklıyor ve insanları, hizmetlerini “silah geliştirmek yahut kullanmak” için kullanmamaları konusunda uyarıyor. Lakin şirket “askeri ve savaş” ile ilgili ifadeyi kaldırdı.
Henüz gerçek hayattaki etkilerini görmemiş olsak da, sözlerdeki bu değişiklik tam da dünya çapındaki askeri kurumların yapay zeka kullanımına ilgi göstermesiyle ortaya çıkıyor.
Yapay zekanın savaş için kullanılması için birinci yeşil ışık OpenAI’den geldi!
AI Now genel müdürü Sarah Myers West, “Gazze’deki sivillerin amaç alınmasında yapay zeka sistemlerinin kullanımı göz önüne alındığında, ‘askeri ve savaş’ sözlerini OpenAI’nin müsaade verilen kullanım siyasetinden çıkarma kararı almak kayda paha bir an” dedi.
Yasaklanan kullanımlar listesinde “askeri ve savaş” tabirinin açıkça belirtilmesi, OpenAI’nin ekseriyetle yüklenicilere yararlı mutabakatlar sunan Savunma Bakanlığı üzere devlet kurumlarıyla çalışamayacağını gösterdi. Şirketin şu anda kimseyi direkt öldürebilecek yahut fizikî ziyan verebilecek bir eseri bulunmuyor. Ancak The Intercept’in söylediği üzere teknolojisi, kod yazmak ve insanları öldürmek için kullanılabilecek şeyler için satın alma buyruklarını işlemek üzere misyonlarda kullanılabilir.