DOLAR 14,7416 0.18%
EURO 16,0874 0.15%
ALTIN 910,790,00
BITCOIN 644787-4,86%
İstanbul
15°

AZ BULUTLU

02:00

İMSAK'A KALAN SÜRE

‘Vesikalık fotoğraf yüklemeyin!’ Dikkat çeken sosyal medya uyarısı

‘Vesikalık fotoğraf yüklemeyin!’ Dikkat çeken sosyal medya uyarısı

Günümüz teknolojisinde yapay zekâ ile yapılabilenlerin sınırı yok. Gün içerisinde kullandığımız uygulamalar ya da teknolojik aletlerin hepsi yapay zekânın birer parçası. Ancak teknoloji ve yenilikler her zaman güvenli olmayabilir! Gelecekte kendinizin gerçek olduğunu bile kanıtlamanız gerekebilir diyen uzmanlar, deepfake teknolojisiye ilgili önemli uyarılarda bulundu. Uzmanlar gerçekle sahte görüntüleri birbirinden ayırt etmeye yönelik önemli bir detaya da dikkat çekti.

ABONE OL
Şubat 25, 2022 10:31
‘Vesikalık fotoğraf yüklemeyin!’ Dikkat çeken sosyal medya uyarısı
0

BEĞENDİM

ABONE OL

Birleşik Krallık’taki Lancaster Üniversitesi ve ABD’deki Kaliforniya Üniversitesi’nden araştırmacılar, yapay zekânın tasarladığı insan yüzlerinden bir deney tasarladı. Geçtiğimiz günlerde sonuçları açıklanan araştırmanın sonuçları ise uzmanları endişeye düşürdü. Çalışmalar, yapay zekâ ile oluşturulan bir yüz ile gerçek yüz arasında fark bulunmadığını gözler önüne seriyor. Araştırmanın en endişe verici yanı ise, yapay zekâ tarafından oluşturulan sahte yüzlerin gerçek insanların yüzlerinden daha güvenilir göründüğünü ortaya koyması oldu. Araştırma sonucuna göre bu yüzlerin son derece gerçekçi olmakla kalmayıp, aynı zamanda gerçek yüzlerden neredeyse ayırt edilemez olduğuna, hatta daha güvenilir olduklarına karar verildi. İlgili Haber Büyük bir bulmacanın son parçası! Duman ve alev bulutları görüyorlar İlk deneyde 315 katılımcıya, 128 gerçek ve sahte olan yüz arasından doğru olanları bulmaları istendi. Sonuç olarak katılımcıların doğruluk oranları yüzde 48 olarak belirlendi. İkinci bir deneyde, 219 yeni katılımcı gerçek ve yapay zekâ tarafından oluşturulan yüzler konusunda eğitilirken, yüzlerin nasıl sınıflandırılacağı konusunda da bilgilendirilmelerde bulunuldu. Eğitimli olan ikinci ekibin de doğruluk oranı yüzde 59 çıktı. Ancak arada çok büyük bir fark olmaması eğitimli kişilerinde kolaylıkla kandırılabileceğini gösteriyor. Çalışmada üçüncü bir deney daha yapıldı. Bu kez 223 katılımcıdan 128 yüzün güvenilir ve güvenilmez şeklinde oylanması istendi. Sahte yüzler gerçek yüzlerden ortalama 8 puan daha güvenilir bulundu. Aradaki fark küçük görünse de uzmanlar istatiksel olarak ciddi bir oran olduğunu düşünüyor.KADINLAR ERKEKLERDEN DAHA GÜVENİLİRSiyah yüzler, Güney Asyalı yüzlerden daha güvenilir olarak değerlendirildi ancak bunun dışında ırklar arasında herhangi bir etki olmadı. Bununla birlikte kadınlar erkeklerden önemli ölçüde daha güvenilir olarak derecelendirildi. Araştırmacılar, yüzlerin gülümseyip gülümsemediğinin sonuçları etkilemediğini de iddia ediyor. “Gülümseyen bir yüzün güvenilir olarak değerlendirilmesi daha olasıdır, ancak gerçek yüzlerin yüzde 65,5’i ve yapay yüzlerin yüzde 58,8’i gülümsüyor. Bu nedenle yüz ifadesi tek başına yapay yüzlerin neden daha güvenilir olarak derecelendirildiğini açıklayamaz” diyorlar. İlgili Haber 20 yıl bedava kullanma fırsatı! Elektrik faturasına alternatif oluyor Yapay zekâ, internet dünyası içerisinde anonim olarak erişilebilen tüm yüzlerin denetimlerini yaparak, bir algoritma ile oluşturduğu yüzlerin gerçekliğini sorguluyor. Yapay zekâ eğer var olan paylaşım ağlarında benzer bir yüz ile karşılaşmaz ise kendi yarattığı sahte yüzün doğruluğuna yani hiç var olmadığına kanaat getiriyor. Bu teknoloji reklamcılıktan sinema sektörüne kadar Deep Fake teknolojileri ile birleştirilerek kullanılabiliyor. Altyapı olarak kullandığı teknolojinin ismi makine öğrenme temelli GAN (Generative Adversarial Network). Yapay zekâ eğitim setleri ile öğreniyor, ayrıca yeni fotoğraflar, karakterler, ortamlar ve insan görünümleri yaratabiliyor.’YAKALANMA RİSKİ OLMAYAN İNSAN YARATMAK İMKÂNSIZ DEĞİL’“Siber dolandırıcılık, kara para aklama, yasaklı madde ticareti, kaçakçılık gibi faaliyetlerde kullanılabilecek ve yakalanma riski olmayan bir insan yaratılması bu teknolojiyle kesinlikle imkânsız görünmüyor” diyen Siber Güvenlik Uzmanı Osman Demircan, Metaverse evrenlerinin hayatımıza girmesiyle de büyük bir değişimin başladığına işaret etti.DEEPFAKE SAYESİNDE KAYBETTİĞİ KIZINA VEDA ETTİDeep Fake teknolojileri günümüzde bilgisayarlar ve yazılım teknolojilerinin gelişmesi ve yapay zekânın da desteği ile çok farklı bir noktaya geldi. Kendini filmlerde ve reklamlarda daha çok gösteriyor olsa da Güney Kore’de yaşanan olay, bu tarz teknolojilerin iyi şeyler için kullanılabileceğini unutmamamız gerektiğini bizlere hatırlatıyor. 2016 yılında 7 yaşındaki kızını kaybeden bir anne Deep Fake teknolojileri ve sanal gerçeklik gözlükleri sayesinde kızıyla tekrar karşılaşabildi ve anne böylelikle kızına veda etme şansı bulmuş oldu. Bu oldukça iyi bir örnek olsa da başta dolandırıcılık ve toplumsal ayaklanma gibi konularda da kullanılma olasılığının çok yüksek olduğunun altını çizen Osman Demircan, geçtiğimiz yıllarda hack’lenen sosyal medya platformu Twitter’da ülke liderleri ve karar otoritelerinin mavi tikli doğrulanmış hesaplarının ele geçirildiğini dile getirdi. İlgili Haber 'Sessiz İkizler'in büyük sırrı! Ayrı bedenlerde tek ruh… Demircan, “Deep Fake teknolojileri kullanılarak hesabı ele geçirilen bir devlet başkanının hesabından halkı galeyana geçirici ve iç ayaklanma çıkmasına neden olabilecek mesaj yayınlanabilirdi. Sosyal medya kullanıcılarının doğruluk kriteri olarak doğrulanmış bir hesabı görmesi ve Deep Fake ile, gerçek görüntüsü ile bu liderlerin konuşma yapması taraftarlarını sokağa dökebilirdi. Bu durum hâlâ yoğun risk teşkil etmekte” diye konuştu.SAHTE SES İLE 35 MİLYON DOLAR ÇALINDIDeep Fake teknoloji olarak sadece görselliği ve hareketleri bire bir kopyalamıyor. Bunların yanında ses de bu teknolojileri kullanılarak kopyalanabiliyor. Geçtiğimiz yıl Birleşik Arap Emirlikleri’nde Deep Fake ile oluşturulmuş sahte ses ile 35 milyon dolar çalınmasına da değinen Osman Demircan, “Banka yetkilileri ve yöneticisi geçmişte defalarca gerçek hesap sahibiyle görüştükleri sesi tanıdıkları için güvenmişlerdi. Sonuç olarak 35 milyon dolar buhar oldu. Burada en önemli konu sesi taklit etmenin yanında dolandırıcının gerçekten taklit ettiği kişinin ses mimikleri ile de konuşabilmesi. Bu da hesap sahibinin dolandırıcıların hedefine çok önceden takıldığı ve telefon konuşmalarının dinlendiği sonucunu çıkartıyor. Tek bir teknoloji bu gibi durumlarda suçlu olmuyor. Birçok teknoloji birleşerek dolandırıcılıklar gerçekleştiriliyor” dedi.  İlgili Haber Ciddi bir tehdit! İstanbul'dan daha riskli 10 yer var… İlerleyen günlerde yüz tanıma sistemlerinin hacklenmesi, ses doğrulama ile yapılan finans işlemleri ya da olayla hiçbir alakası olmadığı halde güvenlik kamerasından elde edilen görüntünün Deep Fake ile yüz montajının yapılmasından sonra iftira atılması gibi olaylarla karşılaşma ihtimalimizin yüksek olduğunu söyleyen Osman Demircan, alınabilecek önlemler hakkında da bilgiler verdi.‘VESİKALIK KALİTESİNDEKİ FOTOĞRAFLARINIZI PAYLAŞMAYIN’Bu tür dolandırıcılıklardan korunmak için mutlaka fiziki doğrulamaya ihtiyacımızın olduğunu, özellikle para transferi gibi konularda muhatabıyla  iletişimde olunması gerektiğini ve KVKK kurallarına uygun bir şekilde doğrulama sağlanmasının önemli olduğunu vurgulayan Osman Demircan, “Bunun yanında bireysel olarak ticaret yerine kurumsal ticaret tercih edilmeli. Örneğin sosyal medya üzerinde hesabı olan ama hiç var olmamış bir sahte bir yüz kullanan hesap bizi dolandırabilir. Bu tarz ticaretlerde kurumsal firmalar tercih edilmeli. Bunun yanında yapay zekâ teknolojileri bizim yüzümüzü de kopyalayabilir ve bir suçun parçası olarak gösterebilir. Bu gibi durumlardan kaçınmanın en sağlıklı yolu vesikalık kalitesinde fotoğraflarımızı sosyal medyada paylaşmamak olacaktır. Net fotoğraflar ile yapay zekânın yüzümüzü Deep Fake teknolojilerine taşıması imkansız olmayacak” diyerek ileride karşılaşabileceğimiz bu gibi sorunlardan nasıl korunacağımızı anlattı. İlgili Haber Tarihi değiştirecek keşif! Türkiye'ye 375 km uzakta bulundu Marmara Üniversitesi İletişim Fakültesi Görsel İletişim Tasarımı Anabilim Dalı Başkanı ve Dijital İletişim Araştırmacısı Doç. Dr. Ali Murat Kırık, “Siyasi veya iktisadi amaçlar için dezenformasyon kampanyalarında kullanılması muhtemel olan bu teknoloji aynı zamanda şantaj için sahte videolarının yaratılması işlevini de taşıyabiliyor” diyerek işin ürkütücü boyutuna dikkat çekti. Videoların ve görsellerin ayırt edilemeyecek kadar benzer bir yapıda olmasının özellikle topluma mal olmuş ünlü isimleri zan altında bırakabileceğinin altını çizen Doç. Dr. Ali Murat Kırık, deepfake adını verdiğimiz derin sahtelik teknolojisinin dijital seçim kampanyalarında bir silah olarak da kullanılabileceğine vurgu yaptı.’YAKIN GELECEKTE BİRÇOK İNSANIN BAŞINI AĞRITACAK’Kırık, “Eğlence amaçlı kullanılan bu teknoloji gelecek yıllarda kötü ellerde büyük bir tehdit halini alabilme potansiyeline sahip” diyerek sözlerini şöyle sürdürdü: “Bu teknolojinin kendisi yasal olsa da, bazı kötü niyetli kullanımlar asla yasal değildir. Sosyal paylaşım ağlarında bunların üretimini ve yayılmasını sınırlamak için bir dizi yasal, teknik önlem almak günümüzde elzemdir. Zira tehdit ve şantaj içerikli fotoğraflar, videolar çok yakın gelecekte birçok insanın başını ağrıtacak gibi duruyor. Deepfake teknolojisi sadece birkaç yıl içinde inanılmaz bir yükseliş kaydetti. Deepfake algılama araçları gelişirken, deepfake içeriklerin yetenekleri de gelişiyor.”‘DOLANDIRICILAR HEDEF KİŞİYE HER ŞEYİ SÖYLETEBİLİR’Kemal Sunal, Barış Manço, Bruce Willis gibi isimleri deepfake ile hazırlanmış reklam filmlerinde gördük ve gerçeğinden ayırt etmek mümkün olamadı. Başta eğlenceli gözüken bu teknolojinin aynı zamanda gelecek adına da korkutucu olduğunu söyleyen Doç. Dr. Ali Murat Kırık, “Bu videolar aracılığıyla insanları kandırma ve dolandırma giderek kolay bir hal alacaktır. Obama ve Trump gibi Amerikan başkanlarının deepfake videoları da sosyal medyada adeta bir virüs gibi yayılmış ve birçok kullanıcı tarafından izlenmişti. İlk olarak 2017’de ortaya çıkan derin sahte videolarda, bilgisayar tarafından oluşturulan bir yüz başka birinin üzerine bindirilir. Bu işlem sonrasında, dolandırıcılar hedef kişiye hemen hemen her şeyi söyletebilir veya yaptırabilir” diye konuştu.‘GÖZ KIRPMA HAREKETİNE ÇOK DİKKAT EDİLMELİ’2020 yılında Güney Kaliforniya’da bir kadın, Amerika Birleşik Devletleri Deniz Harp Okulu müfettişini taklit etmek için ‘deepfake’ bir video kullanarak onu kandıran kimliği belirsiz bir dolandırıcı tarafından yaklaşık 300 bin dolar dolandırılmıştı. “Deepfake videolarını ilk bakışta anlamak zor olsa da gözlere dikkat etmek önemli” diyen Doç. Dr. Ali Murat Kırık, “Yapay olan göz hareketleri veya göz kırpma olmaması gibi detaylara dikkat etmek çok önemli. Zira göz kırpma eylemini doğal görünecek şekilde tekrarlamak zordur. Videodaki kişinin söyledikleriyle jest ve mimikleri birbirini tutmuyorsa, doğal olmayan yüz ifadeleri gösteriyorsa, dişler ve dudak yapay duruyorsa videoya kuşkuyla yaklaşmak son derece önemli” sözleriyle uyarıda bulundu.

En az 10 karakter gerekli


HIZLI YORUM YAP

Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK , GDPR ve CCPA kapsamında toplanıp işlenir. Detaylı bilgi almak için Veri Politikamızı / Aydınlatma Metnimizi inceleyebilirsiniz. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.