Digital Age: Заплахата от дезинформация чрез генеративен ИИ е „преувеличена“, според водещ киберексперт

Digital Age: Заплахата от дезинформация чрез генеративен ИИ е „преувеличена“,  според водещ киберексперт

Digital Age: Заплахата от дезинформация чрез генеративен ИИ е „преувеличена“, според водещ киберексперт

Експертите по сигурността се опасяват, че съдържанието, генерирано от изкуствен интелект (ИИ), може да изкриви възприятието ни за реалността - проблем, който е още по-тревожен в годината, изпълнена с важни избори.

Но един от водещите експерти не е съгласен с това, като вместо това предполага, че заплахата, която дълбоките фалшификати представляват за демокрацията, може да е „преувеличена“, пише CNBC.

Мартин Лий, технически ръководител на групата за разузнаване и изследване на сигурността Talos на Cisco, заяви пред CNBC, че според него дълбоките фалшификати - макар и сами по себе си да са мощна технология - не са толкова въздействащи, колкото фалшивите новини.

Въпреки това новите инструменти за генеративен изкуствен интелект „заплашват да улеснят генерирането на фалшиво съдържание“, добави той.

Материалите, генерирани от ИИ, често могат да съдържат често разпознаваеми индикатори, които да подсказват, че не са създадени от реален човек.

Особено визуалното съдържание се оказва уязвимо на недостатъци. Например изображенията, генерирани от изкуствен интелект, могат да съдържат визуални аномалии, като например човек с повече от две ръце или крайник, който се е слял с фона на изображението.

По-трудно може да се дешифрира синтетично генериран гласов звук от гласови клипове на реални хора. Експертите твърдят, че ИИ е толкова добър, колкото са добри данните за обучение.

„Въпреки това машинно генерираното съдържание често може да бъде разпознато като такова, когато се разглежда обективно. Във всеки случай е малко вероятно генерирането на съдържание да ограничава нападателите", казва Лий.

Експертите вече са казвали пред CNBC, че очакват генерираната от изкуствен интелект дезинформация да бъде ключов риск при предстоящите избори по света.

„Ограничена полезност"


Мат Калкинс, главен изпълнителен директор на фирмата за корпоративни технологии Appian, която помага на бизнеса да прави по-лесно приложения със софтуерни инструменти, заяви, че ИИ има „ограничена полезност“.

Той добави, че много от съвременните инструменти за генеративен ИИ могат да бъдат „скучни“. „След като ви опознае, той може да се превърне от невероятен в полезен, но сега просто не може да премине тази граница.“

„Щом сме готови да поверим на ИИ знанията си за нас самите, това ще бъде наистина невероятно“, каза Калкинс в интервю за CNBC тази седмица.

„Хората трябва да знаят, че тези атаки се случват, и да се съобразяват с техниките, които могат да бъдат използвани. Когато се сблъскваме със съдържание, което предизвиква емоциите ни, трябва да спрем, да направим пауза и да се запитаме дали самата информация е дори правдоподобна", предлага Лий.

„Публикувана ли е от авторитетен медиен източник? Други реномирани медийни източници съобщават ли за същото нещо?", каза той. „Ако не, вероятно става въпрос за измама или дезинформационна кампания, която трябва да бъде пренебрегната или съобщена.“

Това може да го превърне в по-ефективен - и опасен - инструмент за дезинформация в бъдеще, предупреди Калкинс и добави, че не е доволен от напредъка, постигнат в усилията за регулиране на технологията в Щатите.

Може да се наложи изкуственият интелект да произведе нещо изключително „обидно“, за да предприемат действия американските законодатели, добави той. „Дайте ни една година. Изчакайте, докато ИИ ни обиди. И тогава може би ще вземем правилното решение", каза Калкинс. „Демокрациите са реактивни институции“, каза той.

Независимо от това колко напреднал е ИИ, Лий отCisco  казва, че има някои изпитани начини за откриване на дезинформация - независимо дали е направена от машина или от човек.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ