Reklamı bağlayın

Deepfake - fotoşəkillərdə və videolarda insanların üzlərini başqasının üzü ilə əvəz etməyə imkan verən texnologiya, son illərdə real kadrlarla saxta məlumatlar arasındakı fərqin getdikcə mürəkkəbləşdiyi bir forma çevrilib. Pornoqrafik məzmunlu saytlarda, məsələn, deepfake məşhur aktyorların bənzərləri ilə həyəcanlandıran videolar yaratmaq üçün istifadə olunur. Əlbəttə ki, bütün bunlar hücuma məruz qalan şəxslərin razılığı olmadan baş verir və maşın öyrənməsindən istifadə edən texnologiyanın artan təkmilləşməsi sayəsində ondan sui-istifadənin digər mümkün formaları ilə bağlı qorxular yayılır. Deepfake-in məhkəmə işlərində sübut kimi rəqəmsal qeydləri tamamilə gözdən sala biləcəyi təhlükəsi realdır və Demokl Qılıncı kimi ədliyyə sektorunun üzərindən asılır. Yaxşı xəbər indi Truepic-dən gəlir, burada siyahıların həqiqiliyini yoxlamaq üçün sadə bir yol tapdılar.

Onun yaradıcıları yeni texnologiyanı Foresight adlandırıblar və əlavə video təhlili və onun dərin saxta olub-olmadığını müəyyən etmək əvəzinə, orijinallığı təmin etmək üçün fərdi yazıların yaradıldığı aparatla əlaqələndirilməsindən istifadə edir. Foresight, bütün qeydləri xüsusi şifrələnmiş metadata dəsti ilə yaradıldığı üçün etiketləyir. Məlumatlar ümumi formatlarda saxlanılır, səhifə üçün önizləmədə Android Polis şirkət bu şəkildə qorunan şəklin JPEG formatında saxlanıla biləcəyini nümayiş etdirdi. Beləliklə, uyğun olmayan məlumat formatları qorxusu yoxdur.

Ancaq texnologiya bir sıra kiçik milçəklərdən əziyyət çəkir. Ən böyüyü, yəqin ki, faylların onlara edilən dəyişiklikləri hələ qeyd etməməsidir. Həll yolu bu təhlükəsizlik metodunu dəstəkləyəcək daha çox şirkətləri cəlb etməkdir. Beləliklə, texnologiyanın uğuru əsasən Samsung və başçılıq etdiyi ən böyük kamera və mobil cihaz istehsalçılarının iştirakı ilə müəyyən ediləcək. Applem. Kiminsə görünüşünüzdən sui-istifadə edə biləcəyindən qorxursunuz? Məqalənin altındakı müzakirədə fikrinizi bizimlə bölüşün.

Bu günün ən çox oxunanları

.