Bir kişi, Las Vegas’taki Tüketici Elektroniği Fuarı’nda (CES) sergilenen AI Life’tan insansı bir robotla konuşuyor.
Frederic J. Brown/Getty Images
başlığı gizle
başlığı değiştir
Frederic J. Brown/Getty Images
Ohio’lu bir adam, federal 2025 Take It Down Yasası kapsamında tarihi bir ilk olarak, kötü niyetli cinsel aktiviteyi tasvir eden yapay zeka tarafından oluşturulan görüntülerin yayınlanması da dahil olmak üzere siber suçlardan mahkum edildi. Ancak uzmanlar bu davaları kovuşturmanın giderek zorlaştığı konusunda uyarıyor.
James Strahler, 37, suçunu kabul etti Ohio Güney Bölgesi’ndeki ABD Başsavcılığı’na göre, siber taciz, çocuk cinsel istismarının müstehcen görsel temsillerinin üretilmesi ve dijital sahteciliklerin yayınlanması – hem gerçek hem de yapay zeka tarafından oluşturulan görüntüleri içeren suçlar.
Kaldırma Yasası, rıza dışı, mahrem dijital içeriğin yayınlanmasını yasa dışı hale getiriyor.
Adalet Bakanlığı’na göre Strahler, çocukların cinsel istismarına yönelik materyallere ayrılmış bir web sitesinde yayınlamak üzere 700’den fazla yasa dışı görüntü oluşturmak için düzinelerce yapay zeka platformu ve telefonunda 100’den fazla yapay zeka web tabanlı model kullandı.
Mahkeme kayıtlarına göre Strahler, yetişkin kurbanlarından birinin tehdit ve taciz edici mesajlar aldığını bildirmesi üzerine yakalandı.
Mahkeme kayıtlarında ayrıca Strahler’in şiddet içerikli aramaların ve mesajların arkasında olduğunu kabul ettiği belirtiliyor. Ele geçirilen telefonundan elde edilen bilgiler, diğer mağdurları ve yapay zeka istismarının boyutunu ortaya çıkardı.
Büyük ödemeler için küçük riskler
Kolina Koltai, yapay zeka teknolojisinde uzmanlaşmış bir araştırmacı gazetecilik grubu olan Bellingcat’te kıdemli bir araştırmacıdır.
Strahler’in yarattığı içeriğin bu kadar büyük olmasının bu tür suçlular için alışılmadık bir durum olmadığını ve kolluk kuvvetlerinin yönetimini bu kadar zorlaştıran şeyin de bu olduğunu söyledi.
Koltai, “Yapay zeka teknolojisinin erken ve ilk günlerini düşündüğümüzde bile, insanların kendi cihazlarında yerel olarak bir şeyi nasıl kuracaklarını veya barındıracaklarını öğrenmeleri gerekecek” dedi.
“Fakat günümüzde, bir web alanına gidip bir bilgi istemi bile gönderebiliyorsunuz ve içeriği oluşturmaya başlamak için çok az teknik bilgiye sahip olmanız gerekiyor. Bu çok büyük bir zorluk teşkil ediyor çünkü çok fazla miktarda içerik var.”
Koltai, eski amatör görüntü mühendisliğine öncülük eden ve gerçekçi düzenlemeler yapmak için bir dereceye kadar beceri gerektiren pahalı bir grafik tasarım yazılımı olan Photoshop gibi daha önceki düzenleme programlarından bahsetti.
Ancak “Günümüzde bir dolarla, hatta bazen daha ucuz bir parayla, internetteki herhangi birinin fotoğrafını çekip bunu bir ‘çıplaklaştırıcıya’ veya bir tür yapay zeka oluşturma platformuna koyabilir ve o kişinin yüzünü temel alarak bile ikna edici yeni bir görüntü oluşturabilirsiniz.”
Ayrıca, kolluk kuvvetlerinin bu siber suçluları ararken yaşadığı sıkıntıya, derin sahte materyaller oluşturmaya adanmış çok sayıda platform da ekleniyor.
Koltai, “Çoğu zaman, kişinin hangi teknolojiyi, hangi hizmeti, hangi platformu kullandığını bilmek inanılmaz derecede zordur… cihazlarına veya tarayıcı geçmişine erişemediğimiz sürece.” dedi.
“Sadece iki veya üç sağlayıcı yok. Herkes oyuna girmeye çalışıyor çünkü bu multimilyon dolarlık bir endüstri” dedi ve sitelerin çevrimdışına alınmamak için genellikle farklı uzantılar (dot com, dot io vb.) altında birden fazla alan adı satın aldığını ekledi.
“Araştırma sitemiz için bile, bir siteyi kapattığımızda, ki bu harika, ne yazık ki, diğerinin yerini almaya istekli başka birçok hizmetin bulunduğu bir tür hidraya dönüşüyor” dedi. “Bu platformların kullanımını zorlaştırana kadar çözülmesi zor bir sorun.”
Deepfake’ler ve gençler
Deepfake çıplaklarla ilgilenen avukat Matthew Faranda-Diedrich, yapay zekanın bilinmeyen teknolojiden ana akım teknolojiye geçişinin, yasanın uyum sağlama yeteneğinden daha hızlı gerçekleştiğini söyledi.
“İki yıl öncesinden bunu hiç duymamış, böyle bir vaka görmemişken, maalesef şu anda herhangi bir zamanda bu vakalardan beş veya altısına sahip olduk” dedi.
Faranda-Diedrich, polisin hızla gelişen teknolojiyi anlamalarına yardımcı olmak ve potansiyel yasa dışı davranışlara yönelik soruşturmaları boyunca onlara destek olmak için polisle yakın işbirliği içinde çalıştığını söyledi.
Ancak hem polis hem de siviller için, bu uygulamaların çoğunun görüntüleri uygunsuz bir şekilde manipüle etmede ne kadar karmaşık olabileceğini anlamakta genellikle bir öğrenme eğrisi olduğunu söyledi.
“Genç oldukları zamanları veya diğer nesilleri düşünecekler ve ‘Ah, bu Photoshop gibi’ diyecekler ve kafalarında üzerinde oynanmış görüntünün sahte olduğunu kolayca anlayabileceğiniz fikri var. Ama aslında ‘çıplaklaştırma’ uygulamaları tarafından üretilen görüntüler çok gerçek görünüyor ve Photoshop uygulanmış bir görüntüye hiç benzemiyor.”
“Ona ne olduğunu söyleyelim”
Rıza dışı deepfake’lerin dağıtımı nesiller arası bir sorundur, ancak özellikle gençler arasında yaygındır. araştırma gösterileri.
Ve kadınlar ve kız çocukları özellikle risk altındadır; bu da tahmini bir rakamı temsil etmektedir. Kurbanların yüzde 90’ı bu suçlardan.
Faranda-Diedrich, karıştığı çoğu vakada suçların hem mağdurlarının hem de faillerinin yaşları 14 ila 16 arasında değişen çocuklar olduğunu söyledi.
“Onları bunun tehlikeleri ve neden olabileceği zararlar konusunda eğitmeye çalışmak istiyorsunuz, böylece çocuklar aslında insanlara bu kadar feci şekilde zarar verecek ‘aptalca’ kararlar vermesinler” dedi.
Ve okulların, bu teknolojilerin kötüye kullanıldığına dair ilk işaretlere müdahale etme konusunda büyük bir sorumluluğa sahip olduğunu söyledi.
Faranda-Diedrich, “Buna ne diyelim: çocuk pornografisi” dedi. “Ve hiçbir okul yöneticisinin ‘Ah, eğer bilseydim’ diyeceğini sanmıyorum. [child sexual abuse material]polisi aramazdım.’ Tabii ki yapacaklardı. Aynı çağrıyı burada da yapmaları ve konuyu kolluk kuvvetlerinin eline daha çabuk ulaştırmaları gerekiyor.”













