Многу системи за вештачка интелигенција (ВИ) веќе научија како да ги измамат луѓето, вклучувајќи ги и оние ос ВИ обучени да бидат искрени. Ова го покажа студијата објавена во магазинот „Патернс“.
Научниците ги анализираа извештаите за тоа како системите за вештачка интелигенција користат лажни информации. Највпечатлив пример беше алгоритмот ЦИЦЕРО, кој беше трениран во играта „Дипломатија“. Во него, играчот мора да создаде сојузи за да го освои светот. Иако алгоритмот беше научен никогаш да не им забоде нож во грб на своите човечки сојузници за време на играта, ЦИЦЕРО не играше фер, пренесува српска Политика.
Други системи за вештачка интелигенција покажаа способност за блефирање во покер и лажни напади во стратешката игра „Starcraft II”. Некои алгоритми дури научија да мамат тестови дизајнирани да ја проценат нивната безбедност.
Луѓето може да ја изгубат контролата врз вештачката интелигенција ако продолжат да ја учат како да изневерува. Затоа, неопходно е да се развијат строги правила што е можно поскоро за да се реши овој проблем и да се класифицира вештачката интелигенција како технологија со висок ризик.
Научниците забележаа дека не ја знаат причината зошто вештачката интелигенција учи да изневерува. Сепак, тоа е можеби затоа што оваа стратегија се покажа како најдобар начин за добро да се изврши дадената задача, пренесува рускиот сајт „Газета“.