У Айзека Азимова много написано про то, что три закона робототехники — это замечательно, но даже такие три простые правила можно интерпретировать по-разному. В одном из рассказов, не вспомню сейчас в каком, закон первый, т.е. «робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред» — был интерпретирован роботом как «людей надо нежно связать и запереть, чтобы они не причинили себе вред». Что он незамедлительно и сделал.
А ныне ВВС США сделали симуляцию дрона, управляемого ИИ, который уничтожал системы вражеской ПВО. Прежде чем отбомбиться, ИИ запрашивал разрешения у оператора, который мог запретить уничтожение конкретно этого расчёта ПВО. Ньюанс в том, что за каждую уничтоженную систему ПВО искуственному интеллекту начислялись очки. Кончилось тем, что ИИ отбомбился… по оператору дрона, чтобы тот не выпендривался, и не мешал ИИ набирать эти самые очки.