През последните две години светът видя множество победи за изкуствения интелект и мнозина съзряха опасност. Сега Google работи за това да предотврати една такава победа в случай, че нейното постигане ни постави в ситуация, по-подходяща за компютърна игра или анимационен филм.

Проектът, от своя страна, не е никак шеговит. За опасност от такъв развой на събитията ни предупредиха не само преки участници в разработката на изкуствен интелект като Стивън Хоукинг и Илон Мъск, но и много професори, учени и дори автори на научна фантастика.

Със задачата се е заел британският екип на компанията, който, паралелно с работата си по програмата за изкуствен интелект, ще разработва и така наречения ”safe incorruptibility“- способ, който ще забрани на изкуствения интелект да научи как да прекрати човешкия контрол над себе си.

Освен това, safe incorruptibility може да се използва, за да предотврати ситуация, в която изкуственият интелект може да навреди или да се обучи за нещо, за което са нужни алтернативни методи на обучение.

Не е изненада, че идеята за война между хората и  изкуствения интелект съществува от времето, когато компютърната мощ се е изчерпвала с редица прости пресмятания. Още през 40-те години на миналия век, световноизвестният писател Айзък Азимов поставя три правила, които адресират точно този случаи, а те звучат заплашително актуални:

- Един робот не може да вреди на човек или, чрез бездействие, да позволява човек да си навреди.

- Един робот винаги трябва да се подчинява на човешки заповеди, освен когато това е в конфликт с първото правило.

- Един робот трябва да опазва своето съществуване стига това да не противоречи на първото и второто правило.

Дали ще има нужда от тях и тяхното спазване предстои още да видим, но чрез усилието си Google ще предотврати всички начини на неподчинение, които можем да очакваме.