• ALTIN (TL/GR)
    2.466,01
    % -0,06
  • AMERIKAN DOLARI
    32,2331
    % 0,19
  • € EURO
    35,1659
    % 0,11
  • £ POUND
    40,9845
    % 0,18
  • ¥ YUAN
    4,4635
    % -0,02
  • РУБ RUBLE
    0,3544
    % 0,23
  • BITCOIN/TL
    2093815,378
    % -0,56
  • BIST 100
    10.319,96
    % 1,59

Yapay zeka dünyadaki en büyük seçimi nasıl bozuyor — RT India

Yapay zeka dünyadaki en büyük seçimi nasıl bozuyor — RT India

Siyasi desteklerin manipüle edilmiş videoları, fark edilemeyecek veya takip edilemeyecek kadar karmaşıktır. Uzmanlar, amacın ters psikoloji olabileceğini, seçmenler videonun sahte olduğunu keşfettikten sonra videonun desteklediği partiyi baltalamak olabileceğini söylüyor

ABD, Pakistan ve Endonezya’da olduğu gibi devam eden Hindistan parlamento seçimleri yapay zekanın yaratıcı kullanımına tanık oluyor. Görünüşte adaylardan seçmenlere yapılan, ancak aslında yapay zeka tarafından üretilen seslerle yapılan telefon görüşmeleri gibi yapay zeka tarafından oluşturulan bazı içerikler zararsızdır. Görünüşte bir partiyi diğerine tercih eden film yıldızlarının veya ülkenin içişleri bakanının pozitif ayrımcılığın kaldırılmasını savunduğu deepfake videolar gibi diğerleri ise daha kötü niyetli.

Ve Hindistan’ın kilit taşı polisleri, siber uzayın ‘kötü aktörlerinin’ bir adım gerisindedir; deepfake’leri gerçek videolardan ayırt edememekte ve kökenlerinin izini sürememektedir; tek çare onları engellemektir; o zaman artık çok geç olmuştur.

‘Deepfake’ terimi, ‘derin öğrenme’ ve ‘sahte’ kelimelerinden türemiştir ve bir kişinin imajını diğerinin imajıyla değiştirmek üzere medyanın dijital manipülasyonunu ifade eder.


Battle Royale: Hindistan'da bir kral nasıl sandık başına gitti?

Yaklaşık iki hafta önce, Bollywood yıldızları Aamir Khan ve Ranveer Singh’in Başbakan Narendra Modi’yi eleştirdiği ve insanlardan muhalefetteki Kongre Partisi’ne oy vermelerini isteyen videolar ortaya çıktı. Oyuncular Mumbai polisinin siber suçlar kanadına şikayette bulunmak için hiç vakit kaybetmediler; ancak o zamana kadar videolar yarım milyondan fazla izlendi.

Google’ın sahibi olduğu YouTube’un Hindistan’da 462 milyon kullanıcısı olduğu ve seçmen sayısının 968 milyon olduğu göz önüne alındığında yarım milyon çok fazla görünmeyebilir. Esya Center ve IIM (A) tarafından yapılan araştırmaya göre 900 milyon internet kullanıcısı var; Ortalama olarak her biri günde 194 dakikasını sosyal medyada gezinerek geçiriyor.

Ancak siber psikolog ve TEDx konuşmacısı Nirali Bhatia’nın RT’ye söylediği gibi, sosyal medya sayesinde herkes konu hakkında kendi fikir ve yargılarını oluşturacak ki bu da çok daha zararlı olabilir.

Ters psikolojinin gücü

Psefolog Dayanand Nene, deepfake videoların kamuoyunu etkileyebileceğini ve insanların ve politikacıların itibarını zedeleyebileceğini açıklıyor. “Deepfake’ler çeşitli psikolojik güvenlik açıklarından yararlanıyor” RT’ye söyledi.

İnsanların gördüklerine ve duyduklarına güvenme konusunda doğal bir eğilimi vardır ve deepfake’ler gerçekçi içerikler oluşturarak bundan yararlanır. “Ayrıca, önceden var olan inançlarımızı doğrulayan bilgilere inanma olasılığımızın daha yüksek olduğu doğrulama yanlılığı gibi bilişsel önyargılar, bizi bakış açılarımızla uyumlu derin sahtekarlıklara karşı duyarlı hale getiriyor.” dedi Nene.

Örneğin, Pazar günü Delhi polisi, İçişleri Bakanı Amit Shah’ın Hindistan’ın ayrıcalıksız kesimleri olan Dalitler ve ‘geri’ kastlar için eğitim ve iş kotalarının kaldırılmasını savunduğu görülen üzerinde oynanmış bir videonun bulunması üzerine bir davayı kaydetmek zorunda kaldı. Bu, Hindistan’ın güneyindeki Telangana eyaletinde yaptığı bir konuşmanın manipüle edilmiş bir deepfake’iydi ve internette yayıldı.

Bhatia, ünlülerin hala etkileyicilerden çok daha popüler olması nedeniyle izlenme sayısının yüksek olmasının meraktan kaynaklandığını düşünüyordu. Dahası, deepfake’ler ters psikoloji işlevi görecek ve deepfake oldukları netleştiğinde onaylanan tarafı olumsuz etkileyecektir.

“Bence bu videoların gündemi buydu” Teknolojinin insan davranışı üzerindeki etkisini inceleyen Bhatia şunları söyledi: “Akıllı seçmenler gerçek gündemi anlayabilir ancak çoğunluk, rasyonel kararlardan ziyade duygulara göre hareket eder.”

Deepfake’ler, bu sahteleri yaratırken dikkati ‘içerik’ten ‘niyet’e aktarır. “Ve etkileyen faktör de bu olacak” CyberBAAP’ın (Siber Zorbalık Farkındalığı, Eylem ve Önleme) kurucusu Bhatia şunları söyledi.

Soruşturmanın zorlu olduğu ortaya çıktı. İsminin açıklanmaması kaydıyla konuşan polis, sahteleri gerçeklerden ayırmanın zor olduğunu söyledi. Deepfake’ler düşük maliyetlidir, yapımı kolaydır ve takip edilmesi zordur, bu da kötü oyunculara ‘serbest çalışma’ olanağı sağlar.

Yüksek profilli soruşturmaya yardımcı olan hükümet yetkililerine göre, deepfake videoların yaratıcılarının, kötü aktörlerin sosyal medya sitelerinde bulunan videolardan yararlanmasına olanak tanıyan bir yapay zeka aracı olan yayılma modelini kullandıklarına inanılıyor. “Araç, onların hemen hemen her şeyi yeniden yaratmalarına olanak sağlıyor.” Bir yetkili RT’ye söyledi.

Yapay Zeka Eğitimi

Yayılma modeli, içeriğin nasıl gürültüden arındırılacağını ve yeniden yapılandırılacağını öğrenerek benzersiz görüntüler üretir. Peki nasıl çalışıyor?

Sosyal medya güvenliği ve bütünlüğü konusundaki çalışmaları nedeniyle ödül alan bilgisayar bilimcisi Srijan Kumar, bir yayılma modelinin, istemlere bağlı olarak, eğitim verilerinin istatistiksel özelliklerine dayalı olarak son derece yaratıcı resimler ve çekimler oluşturabileceğini ve bunların tamamının birkaç saniye içinde yapılabileceğini açıkladı.

“Geçmişte bireysel yüzlerin üst üste getirilmesi gerekiyordu ve bu da zaman alıcı bir süreçti.” Kumar dedi. “Artık difüzyon modeliyle tek komutla birden fazla görüntü oluşturulabiliyor. Çok fazla teknik bilgi gerektirmiyor.”

Aamir Khan ve Ranveer Singh’in videolarında iki aktörün, Modi’nin kampanya vaatlerini yerine getiremediğini ve iki dönem boyunca kritik ekonomik sorunları çözemediğini söylediği iddia ediliyor.

Singh’in videosu 17 Nisan’da ortaya çıktığı an, Kongre sözcüsü Sujata Paul bunu X’teki 16.000 takipçisiyle paylaştı. Ardından gönderisi 2.900 kez paylaşıldı ve 8.700 kez beğenildi. Video 438.000 görüntüleme aldı.

Bu, Bollywood’un deepfake saldırılarından ilk kez etkilenmesi değil. Daha önce aktörler Rashmika Mandanna ve Kajol, internette dolaşan deepfake’lerin farkındaydı. Mandanna’nın videosunda yüzü, açık bir tulumla asansöre giren İngiliz-Hintli sosyal medya yıldızı Zara Patel’in yüzüyle örtüşüyordu.

Yapay zeka tarafından oluşturulan bu görseller, internetteki her türlü takip sistemini baltalama yeteneğine sahiptir. “İşte bu yüzden bir görselin gerçek mi yoksa sahte mi olduğunu belirlemek neredeyse imkansız.” Lighthouz AI’nin kurucu ortağı ve CEO’su Kumar şunları söyledi.

Üretken yapay zeka modellerini kullanarak hem iyi hem de kötü yüksek kaliteli içerik üretmenin maliyeti büyük ölçüde azaldı. “Yapay zeka araçları hayal edilemeyecek ölçekte manipülasyona olanak sağlıyor” e-ticaret platformlarındaki sahte incelemecilerle mücadele etmek için veri bilimi yöntemleri geliştiren siber uzay uzmanı, şunları söyledi: “Gerçekçi görünen ancak tamamen uydurma ve yanlış bilgilendirici içerik oluşturmada önemli bir rol oynuyor.”

Başka bir model veya daha doğrusu mevcut AI aracının bir uzantısı, derin sahtekarlıklar oluşturmak için kullanılan derin öğrenmeli bir metinden resme modeli olan kararlı yayılmadır.


Gandhi yok: Hindistan'ın ana muhalefet partisi mücadele ediyor.  İşte nedeni

“Tamamen açık kaynaklı ve en uyarlanabilir resim oluşturucu.” Soruşturmaya dahil olan (ancak örgütünün gizliliği nedeniyle isminin gizli kalmasını talep eden) bir hükümet yetkilisi bunu söylüyor. “Deepfake oluşturmak için Batı’da istikrarlı yayılmaya büyük ölçüde güvenildiğine inanılıyor.”

Şu ana kadar araştırmacılar, Bollywood oyuncularının deepfake videolarının yurt dışında mı yoksa Hindistan’da mı üretildiği konusunda net değil. Polis videoları engellerken, Hindistan Elektronik ve Bilişim Bakanlığı, X (eski adıyla Twitter) ve Meta gibi sosyal medya platformlarına yapay zeka tarafından oluşturulan deepfake’lerin çoğalmasını düzenleme çağrısında bulundu.

Teknolojiyle yarış

Deepfake videolar için algılama ve azaltma çözümleri var mı?

“Oldukça az sayıda, ancak bunlar başlangıç ​​niteliğinde ve oluşturulan birçok görüntü ve video türünü hesaba katmıyor.” Kumar dedi.

Giderek artan deepfake tespit/azaltma araçları arasında en popüler olanı Intel’in Gerçek Zamanlı Deepfake Detector’unu (FakeCatcher) içerir. Hız ve verimliliğe odaklanır. Intel donanım ve yazılımını kullanan FakeCatcher, kan akışındaki değişiklikler gibi ince fizyolojik ayrıntıları piksel cinsinden analiz eder.

Bir diğeri, videoları ve görüntüleri analiz eden ve her birine manipülasyon olasılığını gösteren bir güven puanı sağlayan Microsoft’un Video Kimlik Doğrulama Aracı’dır. İnsan gözüyle görülemeyen sınırların ve ince gri tonlamalı öğelerin karışımındaki tutarsızlıkları tespit ettiğini iddia ediyor

Araştırmacıların karşılaştığı en büyük zorluklardan biri, yeni dedektörler geliştirildikçe, üretken teknolojinin bu dedektörlerden tespit edilmekten kaçınacak yöntemleri içerecek şekilde gelişmesidir.

“Teknolojinin ilerlemesi, erişimin kolaylaşması ve maliyetin düşmesiyle deepfakeleri tespit etmek giderek zorlaşıyor” Kumar diyor. “Maalesef ufukta acil bir çözüm görünmüyor.”

Son kullanıcıların, deepfake’lere karşı korunmak için anti-virüs ve anti-malware yazılımları gibi eşdeğerlerini cihazlarında kullanmak zorunda kalacağını söylüyor.

İçeriklerimize yorum bırakmayı unutmayınız 🙂

YORUMLAR YAZ