Dikkat! Kurbanlarını yapay zekayla değiştirilmiş seslerle tuzağa düşürüyorlar! Dolandırıcılara birkaç cümle bile yetiyor... - Son Dakika Haberci
Ana Sayfa Teknoloji 9 Mart 2023 96 Görüntüleme

Dikkat! Kurbanlarını yapay zekayla değiştirilmiş seslerle tuzağa düşürüyorlar! Dolandırıcılara birkaç cümle bile yetiyor…

class=”medyanet-inline-adv”>

Yapay zeka teknolojisi, son yıllarda ‘gerçeğin’ ne olduğu konusundaki algıları ve yargıları da değiştirmeye başladı.

Geçtiğimiz yıllarda sık sık dolandırıcılık olaylarıyla bağlantılı olarak gündeme gelen DeepFake uygulamasının yanına şimdi de yapay zeka destekli ses klonlama ve değiştirme uygulamaları eklendi.

Dolandırıcılar, bu uygulamalar yardımıyla hedeflerine aldıkları kişilerin konuşmalarını taklit ederek yakınlarından para istiyor. Son zamanlarda yaygınlaşan bu dolandırıcılık yönteminde sadece birkaç cümlelik bir ses örneği, kişinin konuşmasını klonlayıp kötü amaçlar için kullanmaya yetiyor.

YAŞLI ÇİFTİ HEDEF ALDILAR

Geçtiğimiz günlerde Kanada’da yaşanan ve The Washington Post’un aktardığı bir olay durumun ciddiyetini gözler önüne serdi.

Dolandırıcılar, 73 yaşındaki Ruth Card ve 75 yaşındaki eşi Greg Grace’i torunları Brandon’ın sesini kullanarak aradı. 

class=”medyanet-inline-adv”>

Brandon gibi konuşan yapay zeka, yaşlı çifte torunlarının hapiste olduğunu ve kefalet için nakit paraya ihtiyaç duyduğunu söyledi. Bunu duyan Card ve Grace soluğu en yakın banka şubesinde aldı ve günlük maksimum miktar olan 3 bin Kanada dolarını çekti.

Ancak daha fazla paraya ihtiyaçları olduğundan çiftin başka bir bankaya daha gitmesi gerekti. Bu ikinci bankanın müdürü duruma müdahale edip, “Bir müşterimiz daha benzer bir telefon almış ve asla şüphe uyandırmayacak kadar gerçekçi olan sesin sahte olduğunu öğrenmiş” dediğinde, yaşlı çift dolandırıcılık kurbanı olmak üzere olduklarını fark etti.

Ruth Card, Washington Post’a yaptığı açıklamada, “Kendimizi kaptırmıştık. Hiçbir şekilde şüphelenmedik. Brandon’la konuştuğumuza ikna olmuştuk” ifadelerini kullandı.

ABD Federal Ticaret Komisyonu’nun verilerine göre, 2022 yılında yapay zeka ile ses değiştirilerek yapılan dolandırıcılıklar, ülkedeki en popüler ikinci dolandırıcılık türü oldu. 36 binden fazla insan, arkadaşları ve aile üyeleri gibi davranan kişiler tarafından dolandırıldı. Federal Ticaret Komisyonu yetkilileri, bu olayların 5 bin 100’den fazlasının telefon üzerinden gerçekleştiğini ve 11 milyon dolardan fazla da zarara yol açtığını açıkladı.

Card ve eşinin başına gelenler endişe verici bir eğilimin göstergesi olarak yorumlanıyor. Uzmanlar ise ABD’de kolluk kuvvetleriyle mahkemelerin gelişen bu olayları kontrol altına almak için yeterli donanıma sahip olmadığına ve polisin dünyanın dört bir yanında faaliyet gösteren dolandırıcılardan gelen aramaları takip etmesinin zor olduğuna dikkat çekiyor.

Berkeley’deki California Üniversitesi’nde dijital adli tıp profesörü olan Hany Farid, “dehşet verici” ve “korkutucu” olarak nitelendirdiği bu gelişmelerle ilgili olarak, “Yapay zeka ile ses üreten yazılım; yaş, cinsiyet ve aksan dâhil olmak üzere bir kişinin sesini benzersiz kılan şeyleri analiz ediyor ve benzer sesleri bulmak için geniş bir ses veri tabanında arama yapıyor” ifadelerini kullandı. 

class=”medyanet-inline-adv”>

2020’nin başlarında Birleşik Arap Emirlikleri’nde (BAE) yapay zeka ile şirket yöneticilerinin sesleri taklit edilerek 35 milyon dolarlık bir soygun gerçekleştirildi. Söz konusu olay, yapay zekayla sesin manipüle edilmesiyle gerçekleştirilen ikinci geniş kapsamlı soygun vakası olarak tarihe geçti. İlki ise 2019’da İngiltere’deki bir enerji firmasının CEO’sunun sesi taklit edilerek banka hesaplarından 240 bin dolar çalınmasıydı… Ancak, uzmanlar BAE’deki soygunun ilkinden çok daha detaylı ve kapsamlı bir dolandırıcılık organizasyonu olduğunu vurguluyor.

‘SOSYAL MEDYA HAREKETLERİYLE TEMEL BİR KARAKTER ANALİZİ OLUŞTURULABİLİYOR’

Konuyla ilgili görüşlerine başvurduğum Siber Güvenlik Uzmanı Osman Demircan, “Böylesi bir dolandırıcılığı gerçekleştirmek için öncelikle çok iyi bir senaryo gerekiyor. Bu senaryonun gerçekleştirilebilmesi için ise hedefte olan kişinin biraz olsun tanınması lazım. Sesi taklit edilecek kişi hakkında da biraz fikir sahibi olunması şart” dedi.

Bununla birlikte Demircan, dolandırıcıların hedef aldıkları kişiler hakkında bilgi toplamakta zorlanmadıklarının da altını çizerek şu uyarıları yaptı:

“Bu konuda sosyal medya oldukça tehlikeli… Çünkü sosyal medya hareketleriyle basit bir şekilde temel bir karakter analizi oluşturulabiliyor. Sonrasında ‘Hangi saatte nerelere gidiliyor? Aralarındaki ilişki nasıl? Birbirleriyle diyalogları nasıl gelişiyor?’ gibi fikir yürütülebiliyor. Bu bilinmezler çözüldükten sonra senaryo işleme konuyor. ‘Başım dertte, acil paraya ihtiyacım var’ ya da ‘Telefonla bankacılık işlemi yapmak istiyorum’ gibi farklı şekillerle dolandırıcılık gerçekleşiyor.”

Dikkat Kurbanlarını yapay zekayla değiştirilmiş seslerle tuzağa düşürüyorlar Dolandırıcılara birkaç cümle bile yetiyor...

class=”medyanet-inline-adv”>

SOSYAL MEDYADA VİDEO PAYLAŞIRKEN DİKKAT!

Kurgulanan senaryonun çalışması için en önemli konunun kişilerin aralarındaki diyalog olduğuna vurgu yapan Demircan, “Sosyal medyada bu iki kişinin diyaloglarının olduğu videolardan bile bir sonuç çıkartılıp karaktere yüklenebilir. Bundan sonrası için iyi bir oyunculuk gerek. Sonunda da benzersiz bir dolandırıcılık ortaya çıkıyor” dedi.

Hany Farid de sosyal medya uygulamalarına dikkat çekerek “İki yıl öncesine kadar bir kişinin sesini klonlamak için çok fazla sese ihtiyacınız vardı. Şimdi eğer bir Facebook sayfanız varsa ya da bir TikTok kaydettiyseniz ve sesiniz 10-20 saniye boyunca oradaysa, insanlar sesinizi klonlayabilirler” uyarısında bulunuyor.

UYANIK OLMAK GEREKİYOR: ÇEVRİMİÇİ TOPLANTILARDA VE KAFELERDE SESİNİZİ KAYDEDEBİLİRLER!

Ortam dinlemesine de çok dikkat edilmesi gerektiğini vurgulayan Demircan, “Katıldığımız çevrimiçi toplantılarda sesimizi kullanıyoruz. En uç örnek ise şu: Eğer hedefseniz ve bir kafede arkadaşlarınızla konuşuyorsanız sesiniz yan masada kaydedilebilir. Bunun önüne geçilemeyecek. Bize düşen uyanık olmak ve bu tarz risklerin olduğunu bilerek hareket etmek” dedi.

Dikkat Kurbanlarını yapay zekayla değiştirilmiş seslerle tuzağa düşürüyorlar Dolandırıcılara birkaç cümle bile yetiyor...

‘KİMLİK VE TELEFON NUMARASI BİLİNEN KİŞİLER RİSK ALTINDA’class=”medyanet-inline-adv”>

Osman Demircan, “Yakın zamanda yaygınlaşacağını düşündüğüm konu; GSM operatörlerinin çağrı merkezleri aranarak telefon yönlendirme işlemlerinin gerçekleştirilmesi” dedi ve ekledi:

“Telefonu yönlendirmek demek hem arama hem de mesajları yönlendirmek demek. SMS doğrulaması bankacılık sisteminde de kullanılıyor. Özellikle kimlik numarası ve telefon numarası bilinen kişiler risk altındalar. Maalesef bu bilgileri her yerde de paylaşıyoruz. SMS’i yönlendirilen bir numaranın sahibinin kimlik numarası da biliniyorsa bankacılık uygulaması herhangi bir yerde çalıştırılabilir. Bu da tüm hesabın boşaltılması anlamına gelir. Daha da kötüsü hızlı kredi başvurularıyla kişi borçlanabilir. Tüm dünyayı bekleyen en yakın ses taklidi tehdidi şu an bu.”

class=”medyanet-inline-adv”>

Bunun dışında e-Devlet sistemine erişim sağlanması da yönlendirilen SMS ile yapılan doğrulamada mümkün. Aynı SMS doğrulaması sosyal medya hesaplarının çalınmasına ya da e-posta hesabına erişilmesine de neden olabilir. SMS ile iki faktörlü doğrulamayla çalışan tüm sistemler risk altında olabilir.

Siber Güvenlik Uzmanı Osman Demircan

KİLİT SORULARLA DOLANDIRILDIĞINIZI ANLAYABİLİRSİNİZ

Telefonunun ucunda duyduğumuz ses çok yakın bir tanıdığımıza ait olduğu için bu tuzağa düşme ihtimalimiz çok yüksek… Peki kişinin dolandırıldığını sesten anlaması mümkün mü?

Bu soruma Osman Demircan “Ses birebir olacağı için sesten anlamak zor ama kilit sorular çok önemli” cevabını verdi ve şöyle devam etti:

— Öyle bir konuşmada doğal olarak başı dertte olan tanıdığımıza odaklanıyoruz. Öncelikle “Daha önce benzeri bir konuşma aramızda geçti mi?” sorusunu sormak gerekiyor. “Benden daha önce böyle bir yardım istemedi. Bu konuşma gerçek olmayabilir” şeklinde düşünmek lazım.

— Nasıl “Sizi bankadan arıyorum” şeklindeki aramalarda “Gerçekten banka numarasından arıyormuş gibi görünse de telefonu kapatıp siz arayın” önerisinde bulunuyorsak bu durum için de aynı öneriyi yapacağım. Telefonu kapatın ve sizi aradığını düşündüğünüz kişiyi siz arayarak söylenenlerin doğruluğunu teyit edin.

— Benzer bir durumu sosyal medya hesabı ele geçirilenlerde de yaşadık. Hesabı ele geçirilen arkadaş listesindeki herkesten mesajla para istiyordu. Bu durumda en doğru şey para isteyen kişiyi aramak oluyor. Ses taklidinden şüpheleniliyorsa yine çözüm bu…

Yapay zeka ile ses değiştiren pek çok uygulama mevcut ve sayıları her gün artıyor. Yapay zekanın artık kolay oluşturulabilir olması ve yapay zekanın mobil uygulamalara hızlı entegrasyonuyla daha farklı ve gerçeğe çok yakın ses taklidi yapan uygulamalarla karşılaşacakmışız gibi görünüyor.

Siber Güvenlik Uzmanı Osman Demircan

‘BİLGİSAYAR VE TELEFONLARIN GÜVENLİĞİNİN SAĞLANMASI BİR TAKİBİN PARÇASI OLMAMAK İÇİN ÇOK ÖNEMLİ’

Demircan, böyle bir durumla karşılaşıldığında zaman kavramının da yitirilebileceğine dikkat çekerek, “Yani o saatlerde okulda olması gereken tanıdığınız, bir mekânda parasız kaldığını ve paraya ihtiyacı olduğunu söylüyor. Eğer telefonla arayarak o kişiye ulaşamasak bile okulu aranarak orada olup olmadığının teyidi mutlaka alınmalı. En önemlisi sosyal medya paylaşımları… Bireysel tablet, telefon ve bilgisayarların güvenliğinin sağlanması da bir takibin parçası olmamak için çok önemli. Fakat tüm bu önlemler alınmış olsa da mesajlaşma uygulamasıyla gönderilen bir link artık telefonunuzun sizin kontrolünüzde olmadığı anlamına gelebilir. Bu nedenle dikkatli olmak gerekiyor” ifadelerini kullandı.

Yapay zeka destekli bu dolandırıcılıkta büyük küçük demeden tüm şirketler risk altında. Örneğin genel müdürün sesi taklit edilerek muhasebe departmanının aranması bir para transferi gerçekleşmesini sağlayabilir. Yine miras davalarında başta hakaret ya da yanlış yönlendirmelere neden olabilir. Hedef olan kişinin statüsüne göre değişkenlik gösterebilecek riskler barındırabilir. Kritik bir hastane raporunun kişi bilgisi dışında alınmasına neden olabilir.

Siber Güvenlik Uzmanı Osman Demircan

ALINTI KAYNAK: https://www.hurriyet.com.tr/gundem/dikkat-kurbanlarini-yapay-zekayla-degistirilmis-seslerle-tuzaga-dusuruyorlar-dolandiricilara-birkac-cumle-bile-yetiyor-42230764

Yorumlar

deneme bonusu veren siteler kurtkoy escort escort konya escort konya ümraniye escort ataşehir escort kadıköy escort anadolu yakası escort bursa escort bursa escort maltepe escort ataşehir escort pendik escort kartal escort ataşehir escort kurtky escort işli escort istanbul escort bakrky escort mecidiyeky escort işli escort