Про законы робототехники

У Айзе­ка Ази­мо­ва мно­го напи­са­но про то, что три зако­на робо­то­тех­ни­ки — это заме­ча­тель­но, но даже такие три про­стые пра­ви­ла мож­но интер­пре­ти­ро­вать по-раз­но­му. В одном из рас­ска­зов, не вспом­ню сей­час в каком, закон пер­вый, т.е. «робот не может при­чи­нить вред чело­ве­ку или сво­им без­дей­стви­ем допу­стить, что­бы чело­ве­ку был при­чи­нён вред» — был интер­пре­ти­ро­ван робо­том как «людей надо неж­но свя­зать и запе­реть, что­бы они не при­чи­ни­ли себе вред». Что он неза­мед­ли­тель­но и сде­лал.

А ныне ВВС США сде­ла­ли симу­ля­цию дро­на, управ­ля­е­мо­го ИИ, кото­рый уни­что­жал систе­мы вра­же­ской ПВО. Преж­де чем отбом­бить­ся, ИИ запра­ши­вал раз­ре­ше­ния у опе­ра­то­ра, кото­рый мог запре­тить уни­что­же­ние кон­крет­но это­го рас­чё­та ПВО. Нью­анс в том, что за каж­дую уни­что­жен­ную систе­му ПВО иску­ствен­но­му интел­лек­ту начис­ля­лись очки. Кон­чи­лось тем, что ИИ отбом­бил­ся… по опе­ра­то­ру дро­на, что­бы тот не выпенд­ри­вал­ся, и не мешал ИИ наби­рать эти самые очки.

https://www.theregister.com/2023/06/02/ai_drone_simulation/