Да не се страхуваме, а да опознаваме и използваме изкуствения интелект (ИИ). Това според мен е правилната гледна точка. Това каза генералният директор на Българската телеграфна агенция (БТА) на кръгла маса на тема „Изкуствен интелект и етични стандарти в медиите“ в Университета за национално и световно стопанство (УНСС) днес.
По думите му печатарската машина направи знанието масово, изкуственият интелект сега го прави мигновено. Традиционните медии обаче остават отговорни за достоверността на знанието за днешния ден. Защото ИИ не може да замести журналиста, репортера на мястото на събитието, който създава информацията, която може да бъде използвана от ИИ. 
Генералният директор на БТА отбеляза, че на 16 февруари Агенцията ще навърши 128 години. „БТА остава и до днес най-старата национална българска медия с едно и също име и се стремим да бъдем лидери и то в практичен смисъл, помагайки на всички български медии и търсим лидерство в три посоки - правила, обучение и използване“, каза Вълчев. 
Мисля, че БТА ще стане първата българска медия и сред първите в света, която от 16 февруари ще има писмени правила, част от етичния кодекс на БТА. Второ - в БТА вече въведохме нова програма с млади ментори на по-възрастните колеги. 25 младши репортери, редактори и други служители ще бъдат платени наставници на възрастните колеги в дигиталната сфера. Ще ги учат как да използват изкуствения интелект, как да използват по-добре социалните мрежи, как да използват софтуери за видео, за работа. Тази идея е взаимствана от италианската информационна агенция АНСА, уточни генералният директор на БТА.
И третата посока – от следващата седмица ние ще създадем структура в БТА, която наричаме „БТА Институт“ (БТА И) по примера на Ройтерс и Синхуа. 
Той посочи и какви са основните принципи при използването на ИИ в редакционния процес в БТА. 
„БТА използва ИИ единствено като помощен инструмент в редакционната работа, без да заменя журналистите. Събирането, проверката и представянето на фактите са изцяло отговорност на репортера и редактора. ИИ се прилага само ако подпомага основните ценности на БТА (точност, безпристрастност, бързина и достоверност), без да ги компрометира. Всеки материал, обработен с ИИ, подлежи на задължителна редакторска проверка преди публикуване. БТА никога не разпространява съдържание без човешко участие и окончателно одобрение“, подчерта той. 
ИИ никога не се посочва като автор, не носи отговорност и се допуска едно изключение, заимствано от Ройтерс – извличане на отделни информационни акценти – булети, но изрично се посочва, че е използван ИИ, обясни той.
По думите му допустими приложения на ИИ в БТА са при използването на трансформационни задачи по обработка на вече събрана информация с цел повишаване на ефективността, без създаване на оригинално съдържание, както и при корекция на правописа и граматиката, познато още преди навлизането на ИИ, отбеляза Вълчев.
ИИ е допустимо да се използва и при редактиране за яснота и стил. Можем да допитваме за по-стегнати формулировки без промяна на смисъла. Също при обобщаване на налична информация - при обемни източници, както и при превод на съдържание на чужди езици. Някога агенцията е стигала до информация на седем-осем езика. Този път ще сменим подхода - ще се опитаме да създадем новини, таргетирани към нашите съседи – турски, гръцки, сръбски, румънски, евентуално албански език. Отново задължително след преглед от редактор, който знае съответния език, отбеляза генералният директор на БТА.
При транскрибиране и обработка на записи също е допустимо в БТА използването на ИИ за извличане на данни от документи с цел ускоряване на работния процес.
Кирил Вълчев посочи, че има и недопустими приложения и ограничения за използването на ИИ. В БТА не се използва ИИ за създаване на съдържание от нулата. Забранено е генерирането на изцяло нови текстове, които не се основават на информация, събрана и проверена от репортер. ИИ не може да бъде автор на новини и не се използва за писане или довършване на материали с непотвърдени или несъществуващи факти, отбеляза той.
Освен това забраняваме и генериране на изображения и видеоматериали. Голямата идея е да не се видим на място, където не сме били, с човек, с когото не сме били, и да се чуваме да казваме неща, които не сме казали, обясни той. Друго правило е: „Без ИИ при оценъчни жанрове и мнения“. Те по принцип са недопустими в БТА, ние можем да цитираме само мнения с ясен източник и то в сферата на компетентност на този източник. ИИ не е такъв, каза Вълчев. 
Друг голям въпрос е недопускането на плагиатство, т.е. спазването на авторските права. Там журналистите трябва да бъдат особено внимателни. Изцяло отговорност остава на журналиста проверката на фактите и точността. Запазването на неутралността и стила, тона на агенцията. Използването на ИИ във вътрешно-редакционния процес трябва да става при ясна прозрачност пред аудиторията. Агенцията внимателно ще следи за всички резултати, които излизат през изкуствения интелект, и за защита на данните и източниците с особено внимание към дезинформацията Защото ИИ позволява да получаваш на пръв поглед от ясни източници съобщения, но те трябва внимателно да бъдат проверени доколко са достоверни, обясни Кирил Вълчев.
„Впрочем едно от най-важните неща остава човекът в началото и в края на процеса. И това сме го описали много внимателно в нашите правила, които тепърва ще се развиват и една от големите идеи е ние да ги предоставим като основа за всички български медии, използвайки научния потенциал на нашите университети, които работят в сферата на журналистиката“, уточни генералният директор на БТА.  
Имахме и един дебат и приехме по-консервативен стил. Нашият отдел „Социални мрежи“ настояваше да работи по собствени правила, за да могат да експериментират с ИИ, правейки по-интересни форматите в деветте социални мрежи, в които е БТА. Но аз лично настоях да останем консервативни и да не създаваме специални изключения, специални правила за социалните мрежи, каза още той.
За „БТА Институт“ Кирил Вълчев обясни, че идеята е в него да бъдат поканени 15 организации в България, които работят в областта на ИИ. И голямата цел е тази структура да подпомогне не само БТА, а и да направи свободно достъпни продукти за всички български медии.
Сред тези партньори са Институтът по информационни и комуникационни технологии в БАН, Националната лаборатория по роботика и изкуствен интелект (НЛРИИ) на Института по роботика на БАН, Институтът за компютърни науки, изкуствен интелект и технологии (INSAIT) към СУ „Св. Климент Охридски“, Институтът „Големи данни в полза на интелигентно общество” (GATE), отново към СУ, Институтът за изкуствен интелект в икономиката към УНСС, Иновативната лаборатория за интелигентни системи и изкуствен интелект в Техническия университет в София, Специализирана лаборатория изкуствен интелект в Техническия университет в Габрово, Лабораторията „Изкуствени когнитивни системи“ в Нов български университет, Центърът по информатика и технически науки в Бургаския свободен университет, Лаборатория „Изкуствен интелект и виртуална реалност“ в УНИБИТ, Лаборатория за космически изследвания в България към Висшето военноморско училище във Варна, Лаборатория „Изкуствен интелект на София тех парк“, Българската асоциация на софтуерните компании, Българската работодателска асоциация иновативни технологии и Сдружението на олимпийските отбори по природни науки, посочи той.
По думите му има огромен научен потенциал в България. Много от тези организации вече имат собствени продукти, които просто трябва да бъдат пригодени за използване от българските медии. БТА работи вече по това тези продукти да бъдат внедрени първо в Агенцията и след това във всички други медии.
Вълчев подчерта, че не бива да забравяме, че е нужно, за да имаш софтуер, първо да имах хардуер. Ако не се подменя техниката – телефони, компютри, за никакъв ИИ не може да става дума. „Преди да инвестираме в ИИ, трябва да инвестираме в естествения интелект“, отбеляза той. Възнагражденията на работещите в обществените медии, а и в частните медии, остават драматично ниски в сравнение с подобни сфери, като например учители. Разликата е от около 25%, поради което мнозина избират да напуснат журналистиката и да станат пиари или учители, обясни той. И според него това най-сетне трябва да се промени. 
Кирил Вълчев цитира Свети Йоан Златоуст за финал на речта си, като каза, че „никой не може да се оправдае с това, че уж е искал, но не е могъл. Защото, със сигурност не е могъл, защото не е искал“.
Събитието е организирано от Катедра „Медии и обществени комуникации“ в Университета за национално и световно стопанство (УНСС) в партньорство с Българското национално радио (БНР). Дискусията обхваща три панела, като първият поставя акцент върху технологичната трансформация и ролята на изкуствения интелект в медиите, вторият разглежда етиката и професионалните стандарти при използването на генеративен изкуствен интелект, а третият обсъжда алгоритмите като фактор в информационната среда и предизвикателствата пред устойчивостта на обществото към манипулации.
В кръглата маса участват генералните директори на БТА Кирил Вълчев, на БНР Милен Митев, на БНТ Емил Кошлуков, издатели, представители на академичната общност, медийни професионалисти, регулаторни и браншови организации, както и професионални съюзи.