Про Лема

Я как-то доволь­но дав­но пытал­ся оси­лить кни­гу «Сум­ма Тех­но­ло­гии» вели­ко­го поль­ско­го писа­те­ля. Как водит­ся, ни чер­та в ней не понял, и забро­сил. А теперь подо­брал по-новой, и вот что я вам ска­жу — какой же Ста­ни­слав Лем был, сцк, умный.

Пред­ска­зы­вать буду­щее пра­виль­но может исклю­чи­тель­но малое коли­че­ство людей. Я, напри­мер, не могу. И в целом оно сво­дит­ся к «через пять лет будет всё то же самое, но луч­ше», а «что будет через пять­де­сят лет — пред­ска­зать не может никто».

Так вот, Лему — уда­ёт­ся пред­ска­зать буду­щее и далее пяти­де­ся­ти лет. Кни­гу он напи­сал в 1963 году, и кос­нул­ся самых раз­ных тем. В том чис­ле он очень и очень мно­го гово­рил о иску­ствен­ном интел­лек­те. И вот дву­мя веща­ми я хочу тут поде­лить­ся. Помни­те, когда чело­ве­че­ство дума­ло, что авто­ма­ти­зи­ро­вать будут толь­ко тяжё­лый меха­ни­че­ский труд, а люди будут сво­бод­ны­ми от это­го тру­да, что­бы зани­мать­ся Твор­че­ством?

А Лем — шесть­де­сят лет назад, блин! — ска­зал по это­му пово­ду вот что:

«Гово­рят, что мож­но будет авто­ма­ти­зи­ро­вать­толь­ко нетвор­че­скую умствен­ную дея­тель­ность. Где дока­за­тель­ства? Ска­жем опре­де­лен­но: их нет и, более того, не может быть. Голо­слов­но утвер­жда­е­мая «невоз­мож­ность» авто­ма­ти­зи­ро­вать твор­че­ский труд пред­став­ля­ет не боль­шую цен­ность, чем биб­лей­ское утвер­жде­ние о том, что чело­век все­гда будет добы­вать хлеб в поте лица сво­е­го.»

И был на 120% прав. На дан­ный момент авто­ма­ти­зи­ру­ют как раз эту самую твор­че­скую дея­тель­ность, а чело­ве­че­ский труд тех же сан­тех­ни­ков, стро­и­те­лей, или свар­щи­ков — абсо­лют­но ника­кой угро­зе со сто­ро­ны ИИ не под­вер­га­ет­ся, и вряд­ли вооб­ще будет ей под­вер­жен.

А ещё Лем с уди­ви­тель­ной точ­но­стью преду­га­дал наши доро­гие ней­рон­ные сети в гла­вах «Уси­ли­тель интел­лек­та» и «Чёр­ный ящик». Более того — он обос­но­вал необ­хо­ди­мость имен­но подоб­но­го под­хо­да, вме­сто тра­ди­ци­он­но­го алго­рит­ми­че­ско­го, к реше­нию про­блем систем иску­ствен­но­го интел­лек­та! Несколь­ко цитат:

«Одна­ко я оста­нав­ли­ва­юсь на при­ме­ре уси­ли­те­ля интел­лек­та пото­му, что на нем нагляд­нее вид­на та фун­да­мен­таль­ная труд­ность, с кото­рой стал­ки­ва­ет­ся в подоб­ных зада­чах кон­струк­тор. Дело в том, что он дол­жен создать устрой­ство, кото­рое было бы «умнее его само­го». Ясно, что если бы он хотел дей­ство­вать соглас­но мето­ду, кото­рый стал уже тра­ди­ци­он­ным в при­клад­ной кибер­не­ти­ке, то есть если бы он стал раз­ра­ба­ты­вать про­грам­му рабо­ты сво­ей маши­ны, то постав­лен­ная зада­ча не была бы реше­на: нали­чие про­грам­мы ста­вит пре­дел «интел­лек­ту­аль­но­сти», дости­жи­мой для созда­ва­е­мой маши­ны. На пер­вый взгляд — но толь­ко на пер­вый — зада­ча пред­став­ля­ет­ся нераз­ре­ши­мым пара­док­сом… Но суще­ству­ет (пока лишь гипо­те­ти­че­ская) воз­мож­ность совер­шен­но ино­го под­хо­да к про­бле­ме. Деталь­ные све­де­ния о внут­рен­нем устрой­стве уси­ли­те­ля интел­лек­та нам недо­ступ­ны. Но, быть может, они и не нуж­ны? Нель­зя ли смот­реть на этот уси­ли­тель как на «чер­ный ящик», то есть как на устрой­ство, о внут­рен­нем стро­е­нии и после­до­ва­тель­ных состо­я­ни­ях кото­ро­го у нас нет ни малей­ше­го поня­тия, как на устрой­ство, в кото­ром нас инте­ре­су­ют толь­ко конеч­ные резуль­та­ты его дей­ствия? Подоб­но вся­ко­му ува­жа­ю­ще­му себя кибер­не­ти­че­ско­му устрой­ству, уси­ли­тель интел­лек­та обла­да­ет «вхо­да­ми» и «выхо­да­ми»; меж­ду ними про­сти­ра­ет­ся область наше­го неве­де­ния. Но чему это повре­дит, коль ско­ро дан­ное устрой­ство и в самом деле ведет себя так, как интел­лект с пока­за­те­лем интел­лек­ту­аль­но­сти, рав­ным 10000?!»

Послу­шай­те, это же гени­аль­но — понять это шесть­де­сят с гаком лет назад! Невоз­мож­ность реше­ния даже эле­мен­тар­ной, по теку­щим мер­кам, зада­чи рас­по­зна­ния пат­тер­нов ИИ толь­ко при помо­щи напи­са­ния алго­рит­мов с длин­ны­ми бло­ка­ми if {} else {} хоро­шо пока­зы­ва­ет комикс XKCD (разу­ме­ет­ся, он есть на любую тему), непло­хо отра­жа­щий реа­лии года эдак 2010-го (каких-то 15 лет назад, блин):

Поэто­му любая ней­ро­сеть — это нату­раль­ный лемов­ский «чёр­ный ящик». Физи­че­ски и алго­рит­ми­че­ски в ней нет ниче­го слож­но­го — иску­ствен­ные ней­ро­ны (пер­цеп­тро­ны) при­ду­ма­ли ещё в 1950х годах. Про­сто тогда не зна­ли, как их надо объ­еди­нять в сети, что сло­ёв нуж­но мно­го — для эле­мен­тар­ных логи­че­ских опе­ра­ций типа OR, AND, и так далее — нуж­но уже мини­мум три слоя. Ну, и не зна­ли, как их пра­виль­но тре­ни­ро­вать. А теперь зна­ем — и мате­ма­ти­ка там реаль­но неслож­ная, нача­ла мата­на­ли­за. Но как кон­крет­но ведут себя эти иску­ствен­ные ней­ро­ны, какие веса каких вза­им­ных свя­зей при­во­дят к како­му дей­ствию — мы пони­ма­ем при­мер­но НИКАК. Но поль­зу­ем­ся, пото­му как «дан­ное устрой­ство и в самом деле ведет себя так, как интел­лект с пока­за­те­лем интел­лек­ту­аль­но­сти, рав­ным 10000».

Ещё цита­та:

«Инже­нер­ное искус­ство ведет себя сего­дня при­мер­но так же, как чело­век, кото­рый даже и не пыта­ет­ся пере­прыг­нуть через кана­ву, пока пред­ва­ри­тель­но тео­ре­ти­че­ски не опре­де­лит все суще­ствен­ные пара­мет­ры и свя­зи меж­ду ними: силу гра­ви­та­ции в дан­ном месте, силу соб­ствен­ных мышц, кине­ма­ти­ку дви­же­ний сво­е­го тела, харак­те­ри­сти­ки про­цес­сов управ­ле­ния, про­ис­хо­дя­щих в его моз­жеч­ке, и т. д… И реше­ние нашей про­бле­мы состо­ит имен­но в том, что­бы уси­ли­тель интел­лек­та не зани­мал­ся фор­ма­ли­за­ци­ей, кон­стру­и­ро­ва­ни­ем, вер­ба­ли­за­ци­ей, а дей­ство­вал бы так же авто­ма­ти­че­ски и «наив­но» и в то же вре­мя так же искус­но и без­оши­боч­но, как и ней­рон­ные струк­ту­ры пры­гу­на, — что­бы этот уси­ли­тель не зани­мал­ся ничем, кро­ме пре­об­ра­зо­ва­ния сиг­на­лов, при­хо­дя­щих на «вход» с целью полу­че­ния гото­вых резуль­та­тов на «выхо­де». Ни он, этот уси­ли­тель, ни его кон­струк­тор — никто вооб­ще — совер­шен­но не будет знать, как уси­ли­тель это дела­ет, зато мы полу­чим то един­ствен­ное, чего доби­ва­ем­ся: нуж­ные резуль­та­ты.»

Нет, Лем — это не голо­ва. Это мини­мум две голо­вы, а то и три. Уви­деть то, к чему мы при­шли в пер­вой чет­вер­ти 21 века, из реа­лий 1960х годов — я себе не пред­став­ляю, насколь­ко реаль­но умным чело­ве­ком надо быть. Обал­деть про­сто.