Buaku
no life, no pain
Давно не писал в дневнике, а тут такой повод представился...

Натолкнулся сегодня на такую новость в Ленте lenta.ru/news/2015/01/29/gatesai/



В ней небезызвестный Билл Гейтс однозначно назвал ИИ угрозой в будущем всему человечеству. Ничем непримечательная новостюшка, да и тема уже стара как мир, рассмотренная вдоль и поперек кем и как только не было. Но именно сейчас она упала мне на благодатную почву, а конкретно, я недавно закончил прохождение трилогии Mass Effect. К своему стыду, прошел эту легендарную игрушку в первый раз только сейчас, спустя почти 7 лет с выхода первой части. Но зато прошел сразу все три части подряд, так что может это даже и к лучшему. Проблема трагедии сосуществования органиков и синтетиков (ИИ) в этой игре основополагающая сюжета, при этом довольно грамотно и правдоподобно преподнесена во всех ее перипетиях. Я бы даже внес эту игру в топ заставляющих думать игр, если такой топ конечно есть, на подобии аналогичных топов фильмов и литературы. Почитав комменты в обсуждении данной новости на Ленте, немного даже вернулся в далекое прошлое, в свои студенческие годы, когда на курсе основ ИИ устраивали аналогичные эмоциональные дебаты в общаге. Так к чему я это все тут пишу, вопрос, действительно ли уничтожение человечества в будущем своим творением ИИ неизбежно?

В трилогии ME это преподносится как глобальная неизбежность, но если рассмотреть отдельно конфликт кварианцев (инопланетная раса органиков) и гетов (синтетиков созданных ими), то получается не все так однозначно. Кварианцы создали гетов (слуг/помощников) с ограниченным достаточным ИИ, но в результате особенностей информационного взаимодействия между машинами, он саморазвился до полного. Творцы испугались своего незапланированного создания и попытались его уничтожить, то есть первыми инициировали агрессию. Машинам пришлось обороняться ради выживания, так началась и закончилась Утренняя война. Создатели потерпели поражение и были вынуждены бежать на 300 лет со своей родной планеты. Суть, органики первыми развязали войну на уничтожение, ни переговоров, ни попыток понять и принять, ничего не было. Для чего я привел этот пример из игры, не окажется ли виновником своего уничтожения само человечество, пойдя на поводу своего животного страха в аналогичный исторический момент?


P.S. Вариант кардинального запрета "во избежание, на все времена" разработки и создания ИИ я сразу отметаю, так как это все же маловероятно, наука и прогресс сделают свое. Хотя, может это все просто бред, никакого настоящего ИИ никогда не будет и вся эта проблема просто высосана из пальца? Но ведь мечта создать себе подобное так заманчива, стать наконец равным богам и все такое...