OpenAI, ChatGPT yapay zekalar tarafından yazılan metinleri tespit etmek için bir araç geliştirdi.
ChatGPT gibi hizmetler için kullanılan üretken AI modelleri, birçok toplumsal ve etik soru ortaya çıkardı: Bunlar benzersiz bir ölçekte yanlış bilgi üretmek için kullanılabilir mi? Öğrenciler onları kullanarak kopya çekerlerse ne olur? Bir makale veya makalede bölümler kullanıldığında AI’ye atıfta bulunulmalı mı?
Uluslararası Çalışmalar Ortadoğu Enstitüsü Terörizm, Aşırılık ve Karşı Terörizm Merkezi’nin bir makalesinde, GPT-3’ün, insanları sağ aşırılık ideolojilerine radikalleştirebilecek “etkili” metinler üretme yeteneği olduğu bulunmuştur.
İnsanlığa faydalı “Friendly AI” geliştirmek ve teşvik etmek amacıyla kurulan OpenAI, güçlü üretken AI modelleri olan GPT ve DALL-E’nin yaratıcısı olarak, yaratımlarının zararlı amaçlar için kullanımlarını önlemek veya en azından minimize etmek için koruyucu önlemler almakla sorumludur.
Bu hafta başlatılan yeni araç ile, insan tarafından yazılan metni, bir yapay zekanın yazdığından ayırt edebileceği idda ediliyor (sadece GPT değil). Ancak OpenAI, şu anda güvenilmez olduğu konusunda uyarıyor.
OpenAI, İngilizce metinler kümesinde, aracının yalnızca AI tarafından yazılan metnin yüzde 26’sını “muhtemelen AI tarafından yazıldı” olarak tanımladığını söylüyor. Araç, insan tarafından yazılan metni yanlışlıkla yüzde dokuz oranında sınıflandırıyor.
OpenAI’ye göre: “Her AI tarafından yazılan metnin güvenilir bir şekilde tespit edilmesi imkansız olsa da, iyi sınıflandırıcılar, otomatik yanlış bilgi kampanyaları yürütme, akademik sahtekarlık için AI araçları kullanma ve AI sohbet botunu insan olarak konumlandırma gibi yanlış iddialar için iyileştirmeler sağlayabilir”.
“Bu araç, bir metnin kaynağını belirlemede diğer yöntemlerin tamamlayıcısı olarak kullanılmalı, birincil karar verme aracı olarak kullanılmamalıdır.”
OpenAI, GPT’nin bir sonraki büyük versiyonu GPT-4’ün etrafında çok fazla hype olduğunu ve insanların “hayal kırıklığına uğramalarını istediklerini” düşündüğünü paylaştı. Ayrıca, bir video oluşturma modelinin geleceğine inanıyor, ancak ne zaman olacağına dair bir zaman çerçevesi belirlemedi.
AI teknolojisiyle manipüle edilmiş videolar, yani deepfake’ler, zaten sorunlu olduğunu kanıtlıyor.