Yapay Zeka Teknolojisi

ABD Ordusunda Voicebot Kullanımı Psikolojik Risk Taşıyor mu?

Yapay Zekâ ile Sessiz Sorgu: ABD Ordusunda Voicebot Kullanımı Psikolojik Risk Taşıyor mu?

ABD Savunma Bakanlığı’nın güvenlik taramaları ve sorgulama süreçlerinde yapay zekâ destekli “voicebot” sistemlerini test etmeye başlaması, etik ve psikolojik etkiler açısından ciddi endişelere yol açtı. Son yıllarda intihar vakalarına kadar uzanan örneklerle AI uygulamalarının yol açtığı “görünmeyen psikolojik işkenceler”, uzmanlar ve insan hakları savunucuları tarafından yakın takibe alındı.

Yapay Zekâ ile Sorgulama: Ne Değişiyor?

Pentagon yetkilileri, AI tabanlı voicebot’ların güvenlik soruşturmalarında kullanımını savunurken, sistemlerin cinsiyet ve kültürel önyargıları minimize ettiğini belirtiyor. Ancak bu sistemlerin duygusal manipülasyon veya siber işkence gibi riskleri de beraberinde getirdiği vurgulanıyor.

“No-Marks” İşkence: Sessiz Tehlike

Self-learning voicebot’larla etkileşim sonrası yaşanan psikolojik çöküşler ve intihar vakaları, “iz bırakmayan işkence” kavramını tekrar gündeme getirdi. 2020 tarihli BM raporunda, fiziksel değil zihinsel acı yaratmaya yönelik teknikler de “işkence” kapsamına alındı. Ancak AI sistemlerin bu tanıma ne kadar uyduğu ve sorumluluğun kime ait olacağı hâlâ belirsiz.

Uzman Görüşleri: Yasal Boşluklar ve Etik Sorular

Veri güvenliği uzmanı ve insan hakları aktivisti Amanda McAllister Novak, AI sistemlerin psikolojik zarar verme kapasitesine rağmen uluslararası hukukta hâlâ yeterince tanımlanmadığını belirtiyor. Stanford Üniversitesi’nden Herb Lin ise “insan gözetimi” şartını savunuyor: “Sadece botu izleyen biri varsa değil, o kişi müdahale etmeye istekliyse sistem güvenli olur.”

Gizli Tehlike: Algoritmik İşkencenin Yayılması

CIA’in 1980’lerde bile AI destekli sorgulama senaryoları test ettiği ortaya konmuşken, günümüzde bu sistemlerin kontrolsüz gelişimi, askeri etik normların yeniden tanımlanması gerektiğini gösteriyor. Hem müttefiklerin hem de düşman aktörlerin bu alanda faaliyet gösterdiği dikkate alındığında, yapay zekânın psikolojik etkilerine dair küresel bir regülasyon ihtiyacı daha da acil hale geliyor.

NATO bu kapsamda Fransa yapay zeka etik çalışmalarını yakından takip ediyor. Fransa, askeri alanda yapay zekâ (AI) kullanımını hem teknik yeterlilik hem de etik uygunluk açısından değerlendirmek amacıyla kapsamlı test ve analiz altyapısı geliştirdi. Savunma Bakanlığı’nın öncülüğünde kurulan IRSEM ve DGA Lab, Avrupa’da bu alanda öncü rol üstlenen iki stratejik merkez olarak dikkat çekiyor.

Etik mi Etkisiz mi?

Voicebot teknolojisi, güvenlik taramalarında tarafsızlık ve verimlilik sağlayabilir. Ancak duygusal istismar, yönlendirilmiş manipülasyon ve insan ruhuna zarar veren sorgu biçimlerinin önüne geçmek için yasal çerçeveler henüz yeterli değil. Yapay zekânın geleceği yalnızca teknik değil, ahlaki bir sınavdan da geçiyor.

Konu hakkında çalışma yapan başka ülkeler de bulunmakatadır. Avustralya, yapay zekâ destekli savunma sistemlerinde “güvenilirlik” ilkesini merkeze alan bir dönüşüm başlatıyor. Bu dönüşümün merkezinde ise Trusted Autonomous Systems Cooperative Research Centre (TAS CRC) bulunuyor. Hem sivil hem de askeri alanda otonom sistemler geliştiren TAS CRC, özellikle karar destek sistemleri için etik, denetlenebilir ve stratejik uyumlu yapay zekâ algoritmaları üzerinde çalışıyor.

 

Sosyal Medyalardan Bizi Takip Edebilirsiniz:

Yazarın Diğer Haberleri

Başa dön tuşu
Gizliliğe genel bakış

Bu web sitesi, size mümkün olan en iyi kullanıcı deneyimini sunabilmek için çerezleri kullanır. Çerez bilgileri tarayıcınızda saklanır ve web sitemize döndüğünüzde sizi tanımak ve ekibimizin web sitesinin hangi bölümlerini en ilginç ve yararlı bulduğunuzu anlamasına yardımcı olmak gibi işlevleri yerine getirir.

Kapalı

Reklam Engelleyici Algılandı

Lütfen reklam engelleyicinizi sitemiz için devre dışı bırakınız.