Засичането на неистинска информация е именно чрез модели с изкуствен интелект. На английски език такива модели работят доста добре, а ние се опитваме да ги създадем на български, като проектът би трябвало да завърши в края на февруари, каза още тя. По думите й изследователите сега работят върху модели с данни, събрани от три социални мрежи.
В българското пространство няма известни фейк видеозаписи на популярни личности, но в САЩ има такива - с Барак Обама, с Марк Зукърбърг, с Ким Кардашиян, каза Гаргова в отговор на въпрос дали ще се работи по модел, чрез който хората да могат да разпознават манипулирани видеоматериали или снимки. Това са видеа, в които тези хора казват нещо, което всъщност никога не са казвали, а качеството на материалите става все по-добро и човек трудно може да ги различи, добави тя. По думите й ще има нужда от създаване на модели с изкуствен интелект, които да могат да различават манипулираните видеа. Изкуственият интелект може да сбърка при разпознаване на текст или видео, предупреди Гаргова.
Може да се генерира и реч, като такъв случай имаше преди време – чрез тази технология се генерира гласово съобщение на известен бизнесмен, след което хората, които са се опитали да направят тази измама от негово име, са се обадили в банка и чрез гласа му са „потвърдили“ транзакция за много голяма сума, посочи Гаргова. Това са технологии, които имат добри приложения, но се използват и за да нанесат вреда.
Предстои изследователите да започнат работа по нов проект, в който се предвижда създаване на българо-румънска обсерватория за дигитални медии (BROD). Проектът включва 12 партньори от пет европейски страни и има за цел да създаде мултинационален хъб за откриване, анализиране и борба с дезинформацията, разпространявана в България и Румъния.
На 25 и 26 януари от института организират семинар, в който на участниците ще бъдат представени методи и средства за разпознаване на дезинформация и фалшива информация.