Yazılım uzmanı Doç. Dr. Mehmet Zeki Konyar, deepfake teknolojisinin kötüye kullanımının arttığını ve sahte videoların dolandırıcılık ve dezenformasyon amacıyla kullanıldığını belirterek, vatandaşları bu konuda uyardı.
Yapay zekanin korkutan yanlarindan biri olan "deepfake" (derin sahte) teknolojisi, dolandiricilarin elinde hem vatandasi magdur ediyor hem de dezenformasyona sebep oluyor. Ünlü isimlerin seslerini taklit ederek yatirim vaadi yalaniyla hazirladiklari videolari internet ortamina yayan dolandiricilar, vatandaslarin gerçeklik algisini hedef aliyor.
Yapay zekanin ates ve biçak gibi oldugunu, birçok faydasi bulundugunu fakat kötü ellerde zarara sebebiyet verdigini söyleyen KOÜ Yazilim Mühendisligi Bölümü Ögretim Üyesi Doç. Dr. Mehmet Zeki Konyar, bu teknolojinin tüm detaylarini anlatarak, önemli uyarilarda bulundu.
Hizla büyüyen yapay zeka, bir yandan hayati kolaylastirirken, diger yanda kötü amaçlar için kullandiginda çesitli endiselere sebep olabiliyor. Özellikle yapay zekanin hem hayran birakan hem de korkutan örneklerinden biri olan deepfake videolari, sorumsuzca kullanildiginda dezenformasyonun hizla yayilmasina yol açiyor.
Son olarak internet ortaminda sponsorlu olarak paylasilan ve yayilan videolarda kullanilan yöntem, yazilim mühendislerini bile saskina çevirdi. Ünlü kisilerin seslerini yapay zeka ile taklit eden dolandiricilar, Türkiye’nin önemli sirketlerinin isimlerini de kullanarak, "Yatirim yapin, para kazanmaya baslayin" vaadinde bulunuyor. Yapay zeka ile elde edilen sahte ünlü görüntüleri ve sesleri, vatandaslari magdur ediyor.
Kocaeli Üniversitesi (KOÜ) Yazilim Mühendisligi Bölümü Ögretim Üyesi Doç. Dr. Mehmet Zeki Konyar, hem hayat kurtaran hem de korkutan yapay zekanin tehlikeli yönüne iliskin bilgilendirmelerde bulunarak, vatandaslari uyardi.
Yapay zekanin, bilgisayarin neredeyse bir insanmis gibi düsünmesine, eyleme geçmesine ve yanit vermesine imkan sagladigini ifade eden Doç. Dr. Mehmet Zeki Konyar, bilgisayarlarin düsünme kabiliyetleri olmadigini ve aslinda bilgisayarlara birtakim seyler ögreterek karar vermesini sagladiklarini ifade etti.
Örnek olarak, "Mesela elma ve armutun fotografini gösteriyoruz. Yüzlerce, binlerce veri kümeleri içerisinden 'Bu elmadir', 'Bu armuttur' diyoruz ve birtakim matematiksel formüller ile bunlara ait özellikleri çikariyor. Bu özelliklerden sonra karar olusturuyor. Örnegin elmaya ve armuta dair özelliklerin neler olduguyla ilgili bir karar çikariyor. Bundan sonra gösterdigimiz elma ve armuta bakip, 'Bu elmadir', 'Bu armuttur' diyerek karar veriyor." dedi.
Günümüzde yapay zekanin çok ilginç bir hal almaya basladigini söyleyen Konyar, pandemi döneminde sonra yeni yazilimlar çiktigini belirtti. Sohbet robotlarindan, deepfake teknolojisine kadar birçok yazilimin popüler oldugunu anlatan Konyar, bu yazilimlarin çok basit çalistigini söyle anlatti:
Artik çok basit bir ses kaydinizla sizin için bir video olusturabiliyorlar. Veya yazdiginiz metin ile sizin için yeni bir fotograf üretebiliyorlar. Bunun içinde yapay zekanin güncel teknolojileri kullaniliyor. Binlerce, milyonlarca görüntü kullanilarak bu is yapiliyor.
Örnegin, ’Ben kus görmek istiyorum. Gagasi, kanatlari su sekilde olsun’ dediginizde, böyle bir kus gerçekte olmayabiliyor ama milyonlarca kus görüntüsüyle egitildigi için bunlara ait özellikleri ögrenmeye basliyor. Mesela artik gagalarin nasil olabilecegini biliyor. Tüm varyasyonlari biliyor. Dolayisiyla sizin istediginiz enteresan özellikteki kusu üretip, karsiniza çikariyor.
Doç. Dr. Mehmet Zeki Konyar, son zamanlarda yapay zeka teknolojisi kullanilarak yapilan dolandiricilik olaylarinda artis yasandigina dikkati çekti. Bu sahte videolarda birtakim ünlü kisilerin kullandigini söyleyen Konyar, aralarinda Selçuk Bayraktar’in ve Aydin Dogan’in oldugu videolarin yapilmaya baslandigini belirtti.
'Suraya yatirim yapin', 'Ben suraya katildim çok para kazandim', 'Suraya para gönderin' gibi videolar çikmaya basladigini vurgulayan Konyar, "Maalesef birçogumuz buna inanmak durumunda kalabiliyoruz. Eger ki biraz bilinçli degilsek kanabiliyoruz. Selçuk Bey'in böyle bir ise girmeyecegini biliyoruz. Biz biliyoruz fakat bazen bazi vatandaslarimiz bu durumun farkinda olmayabiliyor. Ya da Aydin Dogan'in ismi, cismi bilinmeyen bir yere yatirim çagrisi yapmayacagini biliyoruz. Halkimizin bunu biliyor olmasi gerekiyor. Ünlülerin adi sani bilinmeyen bir yerden reklam yapmayacagini herkes bilir. Çünkü bir ünlü reklam aliyorsa bunu sosyal medya hesaplarinda paylasabiliyor." dedi.
Internet ortamina yayilan sahte videolarin profesyonel yazilimcilar tarafindan hazirlandigini kaydeden Doç. Dr. Konyar, "Yurt içinden veya yurt disindan birtakim siparislerle yazilim yaptirabiliyorlar. Mesela bugün Hindistan'a istediginiz yazilimi yaptirabilirsiniz. Orada Hindistanli yazilimcilar ucuza çalistigi için sizin tarif ettiginiz özelliklerle size yazilim yapip, gönderebiliyorlar." diye konustu.
Dolandiricilar da maalesef çok popüler isler yapiyorlar. Yazilimi son teknolojisine kadar kullanabiliyorlar. Yurt disindan birisi yaptigi için Türkiye’de kimse de töhmet altinda kalmamis oluyor. Zaten dolandiricilar bu isi çok iyi biliyorlar. Nasil dolandirilacagini, hangi yazilimla, hangi teknolojiyle bunlari biliyorlar. Bazen biz bile sasiriyoruz. O kadar güncel teknolojiler kullaniyorlar ki... Çünkü kazandiklari devasa paralar var ve bu devasa paranin bir kismini kendilerini, dolandiricilik yöntemini gelistirmek için harciyorlar." diye de ekledi.
Yazilim Mühendisligi Bölümü Ögretim Üyesi Doç. Dr. Mehmet Zeki Konyar, sahte videolarin internet ortaminda reklam olarak vatandaslarin karsisina çiktigini, bunun ise "phishing (oltalama)" olarak adlandirilan bir yöntem oldugu bilgisini verdi.
Bazi vatandaslarin kisisel bilgilerine zaman zaman ilgisiz davranabildigini ve 'Deneyelim. Bir sey çikmazsa en fazla telefon numaram gider' diye düsündüklerini belirten Konyar, bu dolandiricilik yöntemlerinin sadece telefon bilgilerini almadigini ve ses kaydini da alabildigini belirterek su uyariyi yapti:
Bu ses kaydinizi yapay zeka yöntemi ile kullanarak akrabalarinizi dolandirabilir. Nasil Selçuk Bayraktar'in, Aydin Dogan'in sesini kullanabiliyorsa sizin sesinizi de üretebilirler. Karsimiza bir video, reklam çiktigi zaman kesinlikle süphelenmemiz gerekiyor. Çokça söylüyoruz, bedava peynir sadece fare kapaninda olur. Kimse bize düsük bir yatirimla yüksek paralar vermez"
Yapay zekanin ürettigi sahte videolar da ipuçlari da bulundugunu dile getiren Konyar, "En bilenini ses ve dudak senkron sekilde hareket etmez. Dudak hareketlerimizi tam olarak taklit edemiyor. Her insanin farkli harf ve ses hareketleri var. Bizim çikardigimiz harfleri ve kelimeleri taklit edemiyor." diye konustu.
Deepfake denilen derin sahtelik videolarinda gözlerin hareketlerini de takip etmek gerektigine dikkati çekti, "Insanlarin gözlerini dogal davranisi bellidir. Gözlerdeki davranis dogal mi, kirpik kaslar dogal oynuyor mu?" gibi sorulari akla getirmek gerektigini vurguladi. Konyar sözlerine söyle devam etti:
Sahte videolar yavaslayinca saçmalamaya basliyor. Görüntüler tuhaflasiyor. Dudak hareketleri yüz, el, kol degismeye basliyor. Yazilim, yapay zeka ayni biçak ve ates gibidir. Binlerce faydasi var ama biçagi baska amaçla kullanmaya basladiginizda zararlari var. Atesin birçok faydasi var ama bir yerleri de yakmamak lazim. Yapay zeka harikadir, yazilim çok güzeldir birçok kisinin, birçok firmanin hayatini kolaylastiriyor ama bir de zarar tarafi var. Uyanik olmak lazim"
Doç. Dr. Mehmet Zeki Konyar, sahte videolarin ilgili mercilere bildirilmesi gerektigine de dikkat çekerek, "Karsimiza çikan böyle videolar oldugunda kesinlikle yetkililere bildirelim. Bilisim Teknolojileri ve Iletisim Kurumu’nun ihbar hatti var. Vatandaslarimizin o ihbar hatti ile iletisime geçerek, bu güvenli olmayan ya da süpheli olan videolari, islemleri bildirmeleri gerekiyor" dedi.