Politikacıları ve tanınmış yüzleri deepfake'lerden korumak isteyen İtalyan girişimi

Suzan

New member
İçeriğin yapay zeka (AI) tarafından mı oluşturulduğunu yoksa insan işi mi olduğunu anlayacak araçları sağlayın. Bu, hedefi Tanımlayıcı AIMarco Ramilli tarafından kurulan ve Marco Castaldo ile birlikte yönetilen bir girişim.

Hem bireysel vatandaşlara hem de şirketlerin ve kamu kurumlarının üst düzey yöneticilerine özel araçlar; böylece ekonomik, politik ve sosyal istikrarsızlaşmanın yaşandığı yarıkürede deepfake'lerin yer edindiği olgusunu herkes kontrol altına alabilir.

United Ventures'ın da inandığı, 2,2 milyon euroluk tohum finansmanına öncülük eden zorlu ama imkansız olmayan bir görev.

Derin sahte risk


2020 yılında yüzü Giorgia Meloni hardcore aktrislerinkinin üzerine bindirildi. Şubat 2024'te Hong Konglu bir şirket dolandırıldı ancak görünüşü bilgisayar korsanları tarafından dijital olarak oluşturulmuş olan finans direktörünün video konferansı sırasında talep ettiği gibi, yetkili işbirlikçilerini 25 milyon avroluk transferleri düzenlemeye teşvik etmek.

Bunlar mevcut birçok örnekten sadece ikisi, ancak tek başına sahtekarlıkların gerçeği ne kadar derinden çarpıtabileceğini veya en azından insanların kafasını karıştırabileceğini gösteriyor.

IdentifAI'nin taahhüdü


2,2 milyon avroluk tur, derin sahtekarlıkların yayılmasına karşı koyma ve şeffaf ve güvenilir bir bilgi ortamı yaratma arzusunu temsil ediyor. Milanolu girişimin kurucusu Marco Ramilli şunları iddia ediyor: “Üretken yapay zeka alanında teknolojik ilerleme fiziksel ve dijital dünyaların yakınlaşmasına neden olacak onları insan gözüyle ayırt edilemez hale getiriyor. Zihnimizi beslemek için kullandığımız ve dolayısıyla fikirlerimizi yönlendiren şeyler hakkında her zaman bilgi sahibi olmanın hakkımız olduğuna inanıyorum. Bu finansman, çoğu durumda rakip bir yapay zeka tarafından üretilen, doğal içerikleri yapay olanlardan ayırt edebilen dejeneratif modellerimizin geliştirilmesinde daha ileri adımlar atmamıza olanak tanıyacak.”

Tura iş melekleri olarak katılanlar arasında Wellness Holding'den Edoardo Alessandri, Venere.com'un (şimdi Expedia) kurucu ortağı Matteo Fago ve UP Invest'ten Umberto Paolucci de yer alıyor.

Deepfake kullanımı


Marco Ramilli'nin söylediği gibi bunları kullanmanın sağlıklı ve sağlıksız yolları var: “Deepfake'ler, reklam ortamlarında hiçbir zaman var olmayan karakterlere ses vermek için kullanılıyor ve örneğin sinema dünyasında zor veya zor olabilecek akrobasi gösterileri veya durumlar yaratmak için kullanılıyor. insanlar için tehlikelidir. Ayrıca bir ürünün neler yapabileceğini anlatan videolar gibi pazarlama materyalleri oluşturmak için de kullanılırlar.

Ne yazık ki, örneğin dolandırıcılık gibi olumsuz bir şekilde de kullanılıyorlar. Siber suçlular tarafından taklit edilen bir oğlunun, babasını arayarak banka havalesi veya çok daha karmaşık bir dolandırıcılık talebinde bulunduğu düşünülebilir. Diğer bir risk ise kitlelerin manipülasyonu politikacıların veya önemli kişilerin aslında hiç söylemedikleri cümleler kurduğu içerik üretimiyle”.

Deepfake'lere yanıt


Üretken yapay zekanın (ChatGPT gibi) yayılması, dejeneratif çözümlerin yükselişine yol açıyor. Ramilli, ikincisinin ne olduğunu kendisi açıklıyor: “'Dejeneratif model' adı, yapay zeka modellerimize verdiğimiz bir isimdir. Üretken yapay zeka modellerine karşı koymak için yaratıldı. Yani, IdentifAI'nin yaptığı şeyin anlamını iyi bir şekilde aktarabilmek için, modellerimizi 'dejeneratif modeller' olarak adlandırmaya karar verdik çünkü onlar, üretken modeller tarafından üretilen eserleri girdi olarak alıyorlar, bu eserleri ayrıştırıyorlar, dolayısıyla bu görüntüleri, bu videoları, bu sesler, bu metinler ve 'muhtemelen B jeneratörü ya da C yerine A jeneratörü tarafından yapılmıştır' diyerek özetini veriyorlar”.

Pazar araştırması, analiz ve danışmanlık firması MarketsandMarkets'a göre, sahte görüntü tespit sektörü 2024 yılı sonunda beklenen 600 milyon dolardan, 600 milyon dolara çıkacak. 2029'a kadar 3,9 milyar dolarbir ile yıllık büyüme oranı %41,6 oldu.

Deepfake'in sınırları


Veri yapay zekanın motorudur. Yapay zekanın döndürdüğü sonuçların kalitesi, birincisinin kalitesine bağlıdır. Bu aynı zamanda deepfake'leri kötü niyetli kullananlar için de geçerli: “Deepfake oluşturma tekniğindeki temel sınırlamalar esas olarak eğitim verileriyle ilgilidir. Yani tatmin edici deepfake'ler yaratmak için, ses örneklerine ihtiyaç varRamilli, “Bir kişinin video klipleri yerine, o kişinin çok sayıda görüntüsü yerine, o kişinin bir görüntüsünü tercih edin” diye açıklıyor.

Deepfake'lerin bir sorun olduğu zaten açık gerçek bir tehlike ama yaratımları herkesin erişebileceği bir yerde değilayrıca güvenilir simülasyonlar oluşturmak için önemli miktarda veriye ihtiyaç duyulduğundan: “Deepfake'lerin oluşturulmasına yönelik üretken modellere ne kadar az örnek verirsek, yanıt, yani modelin çıktısı o kadar kötü olur. Böylece, ton veya aksanda değişiklikler sunan, hatta belirli soruları yanıtlarken bunu kısmen doğru yapan ve kısmen orada olmayan argümanlarla yanıt veren, çok az bilgiyle oluşturulmuş derin sahte modeller bulabilirsiniz. hiçbir şey içeri girmiyor”, diye devam ediyor IdentifAI'nin kurucusu Marco Ramilli.

Bunlara karşı koyacak teknolojilerin sınırları


Zayıf bir deepfake'in maskesini düşürmek kolay olsa da, sahte bir ustalıkla oluşturulduğunda işler karmaşıklaşır. “Bunlara karşı koymak için esas olarak üç teknik vardır. Bunlardan ilki doğruluk kontrolüyani farklı kaynaklara giderek o videonun veya görselin kaynağına gitmek. Bu, tek bir video, tek bir görüntü veya tek bir ses katkısı için işe yarar ancak çok sayıda içerik için işe yaramayabilir. Deepfake'leri büyük ölçekte tanımlamak için C2PA yöntemi kullanılıyor; bu standart, çeşitli yaratıcı araçların sahte içerik oluşturduklarında otomatik olarak ekledikleri bir kendi kendini sertifikalandıran yöntem, ancak açıkçası kötü niyetli faaliyetlerde bulunmak isteyenler bu standarttan kaçınıyor.

Üçüncü yöntem ise dejeneratif modelleri kullanyani, içeriği yaratan üretken yapay zeka ağının aksine yapay zeka ağlarını eğitmek. Bir yöntemin diğerlerinden daha iyi olduğuna inanmıyoruz; deepfake olgusu o kadar büyük ki muhtemelen tüm bu bileşenlerle daha etkili bir şekilde mücadele edilmesini gerektiriyor”, diye açıklıyor Ramilli.

İnsan faktörünün rolü


Siber kültürün ne kadar gerekli olduğunu anlamak için Marco Ramilli ile son bir konuşma: “İnsan faktörü önemlidir. İnsanoğlu hâlâ kendine doğru soruları sorabilme yeteneğine sahipdolayısıyla okuduğunun, dinlediğinin, gözlemlediğinin absürtlüğe yönelip yönelmediğini anlayabilmek. Ancak zaman ilerledikçe sistemler giderek daha rafine hale gelecek ve sahte içerik oluşturma konusunda giderek daha iyi hale gelecektir.

O anda bize içeriğin doğruluğunu doğrulama imkanı verecek araçlara ihtiyacımız olacak. Neden Artık insan gözleri ve kulakları anlamaya yetmeyecek dinlediğimiz veya izlediğimiz şeyin bir yapay zeka tarafından mı yoksa bir insan tarafından mı yaratıldığı. Dijital açıdan neyi sindirdiğimiz konusunda içimizde en azından biraz şüphe uyandıran destek teknolojisine ihtiyacımız var ve giderek daha fazla ihtiyaç duyacağız.”