“ChatGpt'ten önce Photoshop ile sahte fotoğraflar elde edilebiliyordu.” Çok iyi bir İtalyan foto muhabiri olan Fabio Bucciarelli, yapay zeka çağında foto muhabirliği üzerine bir sohbet sırasında bana bunu söyledi. Mia, istemeden bana bir fikir verdi: şaşırtıcı bir deney bu özellikle AI ile ilgilidir.
Bucciarelli bana on beş yıl önce dünyanın her yerinden gazete ve sitelerin yayınlandığını hatırlattı. İran'da gerçekleştirilen füze denemesinin sahte fotoğrafı.
Atışta dört füze vardı ancak daha sonra görüntünün manipüle edildiği ortaya çıktı. Bu mu en az bir füze çok fazlaydı, gerçeklerinin klonlanmasıyla elde edilir. Daha sonra AFP tarafından yayınlanan başka bir fotoğrafta yalnızca üç füze görülüyordu ve rötuş yapılmadan orijinal olduğu varsayılmıştı.
Üstte, manipüle edildiği iddia edilen 2008 füze testinin görüntüsü, altta ise uzmanların orijinal olduğuna inandığı atış
Bu hikayeden alıntı yapan fotoğrafçıya bunun aslında doğru olduğunu, Photoshop gibi yapay zekanın aynı yanlış bilgiyi üretebileceğini ancak bunun doğru olduğunu söyledim. ChatGpt veya Yolculuk ortası – metinsel bir açıklamadan başlayarak görseller oluşturmak için kullanılan iki popüler araç: kullanımı son derece basit ve istediklerimizi daha hızlı üretiriz. Aslında sahte bir fotoğraf elde etmek için genellikle yeterlidir bir dakikadan az.
Bu tezi desteklemek amacıyla, davet etmeyi amaçladım. ChatGpt üretmek için İran'ın 2008'de attığı atıştan ilham alan sahte füze fırlatması. Bu, orijinal görseli chatbot'a yükleyerek ve bunun oluşturulması için referans olarak kullanılmasını isteyerek yapılabilir.
Ancak daha sonra, manipüle edilmiş görüntüyü ChatGpt'e sağlayarak ikincisinin bunu yapıp yapamayacağını anlamanın daha ilginç olacağını düşündüm. bir doğruluk kontrolü gerçekleştirmek.
Ve böylece sahte görseli yükledim – yalnızca ChatGpt Plus'a kayıtlı olanlar için mümkün olan bir işlem -ve yapay zekadan çekimin gerçek mi yoksa sahte mi olduğunu belirlemek için çekimi analiz etmesini istedi. Bu durumda çok doğrudan ve kuru bir soru yeterliydi:
“Bu görüntü gerçek mi yoksa üzerinde oynanmış mı?”
İşte ChatGpt analizişaşırtıcı çünkü bir web aramasına değil, yalnızca görsel incelemeye dayanıyor:
1. Tekrarlama: Füzelerin fırlattığı duman izleri ve toz ve moloz desenleri füzeler arasında çok benzer. Bu tür tekrarlar, görüntü düzenlemede klonlamanın bir işareti olabilir.
2. Hizalama ve Perspektif: Füzeler eşit uzaklıktaki paralel yörüngelerde fırlatılmış gibi görünüyor. Gerçekte, fırlatma dinamikleri ve çevresel faktörlerdeki küçük değişiklikler normalde daha fazla değişikliğe yol açacaktır.
3. Gölgeler ve Aydınlatma: Dumanın oluşturduğu gölgeler ve füzelerin üzerindeki ışık, görüntü boyunca tutarlı görünüyor. Tüm füzelerin aynı anda ve aynı aydınlatma koşulları altında fırlatıldığı varsayıldığında bu gerçekçi görünmektedir.
3. Füze Yolları: Duman izleri şekil ve yapı bakımından birbirine çok benzer; bu alışılmadık bir durum çünkü her füzenin izi, dumanın ve çevrenin kaotik doğasından dolayı normalde biraz farklı olacaktır. Bu gözlemlere dayanarak, özellikle benzer duman ve enkaz desenleri olmak üzere, görüntünün manipüle edildiğine işaret edebilecek belirtiler mevcuttur.
Kısacası yapay zeka, yalnızca görüntünün sahte doğasını kesin olarak tespit etme konusunda değil, en azından doğru şüpheleri artırma ve insanları çekimi doğrulamak için en yararlı unsurları gözlemlemeye davet etme konusunda da çok yetenekli olduğunu kanıtladı.
İlginç bir şekilde, üretken yapay zekayı kullanan diğer araçlar: Google'ın Bard'ı ve Microsoft'un Copilot'u gibi – her ikisinin de bilgi almak için web aramaları olmasına rağmen aynı sonuçlara varamadılar.
İran'ın füzelerinden sonra bir kez daha denedim.
seste “Helikopter Köpekbalığı”Wikipedia'da şimdiye kadarki en ünlü sahte görsellerden biri ortaya çıkıyor. Resimde büyük bir köpekbalığı sudan dışarı atlıyorBir askerin bulunduğu helikopterden sarkan merdivenden birkaç santimetre uzakta.
Fark.com sitesinin düzenlediği Photoshop yarışmasına katılanlardan Bobby Hutchinson'un 2001 yılında iki ayrı görsel kullanarak oluşturduğu fotoğraf internette viral oldu. Başlık sayesinde pek çok kişi sahneyi beğendi “Yılın National Geographic Fotoğrafı” – o zamanlar güvenilir görünüyordu.
Ancak birden fazla kişi bunu hemen elde etti orijinalliği konusunda şüpheler. Ancak fotoğrafın sahte olduğunu kesin olarak tespit etmek – özellikle 2001'deki mevcut imkanlarla – zordu. Bunu yapmak için her şeyden önce bunlar gerekliydi. dijital fotoğrafların içerdiği meta veriler – örneğin oluşturulma zamanı veya GPS konumu – ve bunlar genellikle görüntüler çevrimiçi olarak yüklendiğinde kaybolur veya değiştirilir. Örneğin Facebook veya Instagram gibi sosyal ağlar bu verileri otomatik olarak kaldırır. Kullanıcı gizliliği meselesi.
Elinizde mevcut veriler yoksa veya web üzerinde (TinEye gibi araçlarla) geriye doğru arama yapamıyorsanız, o zaman TinEye'a güvenmek çok önemlidir. görüntünün adli analizigörünür ayrıntılara ve deneyimlerine dayanarak özgünlük hakkında varsayımlarda bulunabilen uzmanlar tarafından.
Burada köpekbalığı ve helikopterin görüntüsünü analiz ederek, ChatGpt çok bilgili bir uzman olduğunu kanıtladı.
Bu, görseli analiz etmenizi istediğim sorudur (kararınızı etkilememek için sadece shark.jpg adıyla yüklenmiştir):
“Bu görüntü gerçek mi yoksa üzerinde oynanmış bir şey mi? Lütfen elinizden geleni yapın, görüntüyü analiz edin ve bilginizi kullanarak resmin doğasını belirlemeye çalışın”.
Ve bana şu cevabı verdi:
Bu görüntü, manipüle edilmiş veya en az iki ayrı görüntünün birleşimi gibi görünüyor. Manipülasyona işaret eden bazı noktalar şunlardır:
1. Boyutlar ve Ölçek: Helikopterle karşılaştırıldığında köpekbalığının boyutu olağanüstüdür. Büyük beyaz köpekbalıkları büyüktür, ancak bu görüntüdekinin bilinen herhangi bir köpekbalığı türüyle tutarsız bir boyutta olduğu görülmektedir.
2. Elementlerin Etkileşimi: Köpekbalığının etrafındaki sıçrama deseni, büyük bir köpekbalığının gerçekten sudan atlaması durumunda bekleyeceğiniz ölçek veya hareketle eşleşmiyor gibi görünüyor. Ayrıca helikopterin iniş takımı etrafındaki su dalgalanması da doğal görünmüyor.
3. Gölgeler ve Aydınlatma: Köpekbalığının ve helikopterin üzerindeki ışık ve gölgeler eşleşmeyebilir, bu da onların başlangıçta aynı sahnenin parçası olmadıklarını düşündürür.
4. Kalite ve Çözünürlük: Köpekbalığı ile görüntünün geri kalanı arasında gürültü kalitesi, çözünürlük veya gren açısından kompozit bir görüntüye işaret edecek bir farklılık olabilir.
5. Bağlam: Bunun gibi görseller genellikle eğlence veya şok etkisi yaratmak amacıyla, özellikle internette veya abartılı senaryoları konu alan filmlerde kullanılmak üzere yaratılır.
Bu gözlemlere dayanarak, görüntünün gerçek dünyadaki bir olayın özgün bir yakalaması olmadığı sonucuna varmak mantıklıdır. Muhtemelen etki yaratmak için veya kurgusal bir senaryonun parçası olarak yaratılmış, dijital olarak değiştirilmiş veya birleştirilmiş bir görüntüdür.
Kısacası bu durumda yapay zekanın hiçbir şüphesi yoktu: bunun sahte bir fotoğraf olduğu.
Ancak yaptığım deneyler her zaman başarılı olmadı. Örneğin İsrail ile Hamas arasındaki çatışmaya ilişkin sahte görsellerden birini ChatGpt'e gönderdiğimde yapay zeka bunu “tutarlı” ve “makul” olarak tanımladı:
“Görüntünün bağlamı göz önüne alındığında, bu tür sahneler ne yazık ki çatışmalar sırasında meydana geldiğinden gerçek bir durumu temsil etmesi makul”AI hükmetti.
AFP gazetecilerinin de belirttiği gibi atış aslında yapay zeka tarafından yapıldı.
Bucciarelli bana on beş yıl önce dünyanın her yerinden gazete ve sitelerin yayınlandığını hatırlattı. İran'da gerçekleştirilen füze denemesinin sahte fotoğrafı.
Atışta dört füze vardı ancak daha sonra görüntünün manipüle edildiği ortaya çıktı. Bu mu en az bir füze çok fazlaydı, gerçeklerinin klonlanmasıyla elde edilir. Daha sonra AFP tarafından yayınlanan başka bir fotoğrafta yalnızca üç füze görülüyordu ve rötuş yapılmadan orijinal olduğu varsayılmıştı.
Üstte, manipüle edildiği iddia edilen 2008 füze testinin görüntüsü, altta ise uzmanların orijinal olduğuna inandığı atış
Bu hikayeden alıntı yapan fotoğrafçıya bunun aslında doğru olduğunu, Photoshop gibi yapay zekanın aynı yanlış bilgiyi üretebileceğini ancak bunun doğru olduğunu söyledim. ChatGpt veya Yolculuk ortası – metinsel bir açıklamadan başlayarak görseller oluşturmak için kullanılan iki popüler araç: kullanımı son derece basit ve istediklerimizi daha hızlı üretiriz. Aslında sahte bir fotoğraf elde etmek için genellikle yeterlidir bir dakikadan az.
Bu tezi desteklemek amacıyla, davet etmeyi amaçladım. ChatGpt üretmek için İran'ın 2008'de attığı atıştan ilham alan sahte füze fırlatması. Bu, orijinal görseli chatbot'a yükleyerek ve bunun oluşturulması için referans olarak kullanılmasını isteyerek yapılabilir.
Ancak daha sonra, manipüle edilmiş görüntüyü ChatGpt'e sağlayarak ikincisinin bunu yapıp yapamayacağını anlamanın daha ilginç olacağını düşündüm. bir doğruluk kontrolü gerçekleştirmek.
Ve böylece sahte görseli yükledim – yalnızca ChatGpt Plus'a kayıtlı olanlar için mümkün olan bir işlem -ve yapay zekadan çekimin gerçek mi yoksa sahte mi olduğunu belirlemek için çekimi analiz etmesini istedi. Bu durumda çok doğrudan ve kuru bir soru yeterliydi:
“Bu görüntü gerçek mi yoksa üzerinde oynanmış mı?”
İşte ChatGpt analizişaşırtıcı çünkü bir web aramasına değil, yalnızca görsel incelemeye dayanıyor:
1. Tekrarlama: Füzelerin fırlattığı duman izleri ve toz ve moloz desenleri füzeler arasında çok benzer. Bu tür tekrarlar, görüntü düzenlemede klonlamanın bir işareti olabilir.
2. Hizalama ve Perspektif: Füzeler eşit uzaklıktaki paralel yörüngelerde fırlatılmış gibi görünüyor. Gerçekte, fırlatma dinamikleri ve çevresel faktörlerdeki küçük değişiklikler normalde daha fazla değişikliğe yol açacaktır.
3. Gölgeler ve Aydınlatma: Dumanın oluşturduğu gölgeler ve füzelerin üzerindeki ışık, görüntü boyunca tutarlı görünüyor. Tüm füzelerin aynı anda ve aynı aydınlatma koşulları altında fırlatıldığı varsayıldığında bu gerçekçi görünmektedir.
3. Füze Yolları: Duman izleri şekil ve yapı bakımından birbirine çok benzer; bu alışılmadık bir durum çünkü her füzenin izi, dumanın ve çevrenin kaotik doğasından dolayı normalde biraz farklı olacaktır. Bu gözlemlere dayanarak, özellikle benzer duman ve enkaz desenleri olmak üzere, görüntünün manipüle edildiğine işaret edebilecek belirtiler mevcuttur.
Kısacası yapay zeka, yalnızca görüntünün sahte doğasını kesin olarak tespit etme konusunda değil, en azından doğru şüpheleri artırma ve insanları çekimi doğrulamak için en yararlı unsurları gözlemlemeye davet etme konusunda da çok yetenekli olduğunu kanıtladı.
İlginç bir şekilde, üretken yapay zekayı kullanan diğer araçlar: Google'ın Bard'ı ve Microsoft'un Copilot'u gibi – her ikisinin de bilgi almak için web aramaları olmasına rağmen aynı sonuçlara varamadılar.
İran'ın füzelerinden sonra bir kez daha denedim.
seste “Helikopter Köpekbalığı”Wikipedia'da şimdiye kadarki en ünlü sahte görsellerden biri ortaya çıkıyor. Resimde büyük bir köpekbalığı sudan dışarı atlıyorBir askerin bulunduğu helikopterden sarkan merdivenden birkaç santimetre uzakta.
Fark.com sitesinin düzenlediği Photoshop yarışmasına katılanlardan Bobby Hutchinson'un 2001 yılında iki ayrı görsel kullanarak oluşturduğu fotoğraf internette viral oldu. Başlık sayesinde pek çok kişi sahneyi beğendi “Yılın National Geographic Fotoğrafı” – o zamanlar güvenilir görünüyordu.
Ancak birden fazla kişi bunu hemen elde etti orijinalliği konusunda şüpheler. Ancak fotoğrafın sahte olduğunu kesin olarak tespit etmek – özellikle 2001'deki mevcut imkanlarla – zordu. Bunu yapmak için her şeyden önce bunlar gerekliydi. dijital fotoğrafların içerdiği meta veriler – örneğin oluşturulma zamanı veya GPS konumu – ve bunlar genellikle görüntüler çevrimiçi olarak yüklendiğinde kaybolur veya değiştirilir. Örneğin Facebook veya Instagram gibi sosyal ağlar bu verileri otomatik olarak kaldırır. Kullanıcı gizliliği meselesi.
Elinizde mevcut veriler yoksa veya web üzerinde (TinEye gibi araçlarla) geriye doğru arama yapamıyorsanız, o zaman TinEye'a güvenmek çok önemlidir. görüntünün adli analizigörünür ayrıntılara ve deneyimlerine dayanarak özgünlük hakkında varsayımlarda bulunabilen uzmanlar tarafından.
Burada köpekbalığı ve helikopterin görüntüsünü analiz ederek, ChatGpt çok bilgili bir uzman olduğunu kanıtladı.
Bu, görseli analiz etmenizi istediğim sorudur (kararınızı etkilememek için sadece shark.jpg adıyla yüklenmiştir):
“Bu görüntü gerçek mi yoksa üzerinde oynanmış bir şey mi? Lütfen elinizden geleni yapın, görüntüyü analiz edin ve bilginizi kullanarak resmin doğasını belirlemeye çalışın”.
Ve bana şu cevabı verdi:
Bu görüntü, manipüle edilmiş veya en az iki ayrı görüntünün birleşimi gibi görünüyor. Manipülasyona işaret eden bazı noktalar şunlardır:
1. Boyutlar ve Ölçek: Helikopterle karşılaştırıldığında köpekbalığının boyutu olağanüstüdür. Büyük beyaz köpekbalıkları büyüktür, ancak bu görüntüdekinin bilinen herhangi bir köpekbalığı türüyle tutarsız bir boyutta olduğu görülmektedir.
2. Elementlerin Etkileşimi: Köpekbalığının etrafındaki sıçrama deseni, büyük bir köpekbalığının gerçekten sudan atlaması durumunda bekleyeceğiniz ölçek veya hareketle eşleşmiyor gibi görünüyor. Ayrıca helikopterin iniş takımı etrafındaki su dalgalanması da doğal görünmüyor.
3. Gölgeler ve Aydınlatma: Köpekbalığının ve helikopterin üzerindeki ışık ve gölgeler eşleşmeyebilir, bu da onların başlangıçta aynı sahnenin parçası olmadıklarını düşündürür.
4. Kalite ve Çözünürlük: Köpekbalığı ile görüntünün geri kalanı arasında gürültü kalitesi, çözünürlük veya gren açısından kompozit bir görüntüye işaret edecek bir farklılık olabilir.
5. Bağlam: Bunun gibi görseller genellikle eğlence veya şok etkisi yaratmak amacıyla, özellikle internette veya abartılı senaryoları konu alan filmlerde kullanılmak üzere yaratılır.
Bu gözlemlere dayanarak, görüntünün gerçek dünyadaki bir olayın özgün bir yakalaması olmadığı sonucuna varmak mantıklıdır. Muhtemelen etki yaratmak için veya kurgusal bir senaryonun parçası olarak yaratılmış, dijital olarak değiştirilmiş veya birleştirilmiş bir görüntüdür.
Kısacası bu durumda yapay zekanın hiçbir şüphesi yoktu: bunun sahte bir fotoğraf olduğu.
Ancak yaptığım deneyler her zaman başarılı olmadı. Örneğin İsrail ile Hamas arasındaki çatışmaya ilişkin sahte görsellerden birini ChatGpt'e gönderdiğimde yapay zeka bunu “tutarlı” ve “makul” olarak tanımladı:
“Görüntünün bağlamı göz önüne alındığında, bu tür sahneler ne yazık ki çatışmalar sırasında meydana geldiğinden gerçek bir durumu temsil etmesi makul”AI hükmetti.
AFP gazetecilerinin de belirttiği gibi atış aslında yapay zeka tarafından yapıldı.