Искусственный интеллект, потенциальная угроза выживанию человечества. Может ли угрожать суперкалькулятор? Опасен ли искусственный интеллект для человека

В этом материале я попробую развернуть вопрос, вскользь затронутый в публикации Gatebox или несколько мыслей о будущем искусственного интеллекта.

Вкратце «мой» тезис состоит в том, в случае достижения сверхчеловеческого уровня, ИИ станет чем-то вроде бога — либо существующего отдельно от человека, либо вместе с ним. В первом случае вопрос о сосуществовании человечества с созданным им богом остается открытым: либо оно будет нас всячески опекать (как мы опекаем редкие растения), либо истребит (как мы истребляем, например, вредный сорняк у себя в огороде), либо не будет испытывать к нам какого-либо интереса — подобно тому, как мы мы равнодушны к какой-нибудь травке на газоне. Предсказать цели и систему ценностей новоявленного бога совершенно невозможно — как сказал бы верующий, «неисповедимы пути Господни».

Менее непредсказуемым является поведение ИИ, занявшего промежуточную форму между гипотетическим будущим богом и нынешними относительно примитивными системами. Условно такой ИИ называется сильным и по своему уровню соответствует человеческому. Его в свою очередь можно разделить на две категории — с самосознанием и без такового. Что есть самосознание — вопрос открытый и очень сложный. В моем понимании это набор физических и психических ощущений, выработанных природой за миллионы лет эволюции. Ключевой особенностью самосознания является противопоставление его носителя окружающему миру. Возможно ли его воспроизвести искусственно, возникнет ли оно собой у интеллектуальной системы (которая вдруг и возьмет и осознает саму себя) — предмет отдельного большого обсуждения. Мы же пока просто зафиксируем возможность обоих вариантов и рассмотрим каждый из них.

С моей точки зрения сильный ИИ без самосознания вполне безопасен (или точнее — предсказуем), поскольку не может иметь никаких желаний. Все его поведение будет подчинено заложенным в него целям и ограничениям. Но как ни странно, в этом отношении сильный ИИ с самосознанием принципиально не отличается от сильного ИИ без самосознания. Нам только кажется, что мы имеем свободную волю и самостоятельны в своих поступках — на самом деле это не так. Все наши цели, потребности и сдерживающие начала либо запрограммированы в нас матерью-природой — жить, есть, пить, любить, отдыхать и т.д., либо навязаны средой обитания (полученным в детстве воспитанием, кино и художественной литературой, законами, традициями и т.д.) — стремиться к власти, делать карьеру, помогать ближним, познавать мир и т.д. Поэтому теоретически аналогичным образом можно запрограммировать и обучить ИИ с самосознанием, который подобно нам будет питать иллюзию о наличии у него свободы воли.

С точки зрения вероятной угрозы давайте рассмотрим ИИ с самосознанием — какие он для нас может представлять угрозы, и как их можно избежать или хотя уменьшить? Очевидно, что обучение сильного ИИ в обязательном порядке должно включать в себя этику. Подобно тому, как наблюдая за поведением опытного водителя, слабый ИИ осваивает функцию автопилота, сильный ИИ можно обучить этике, «скармливая» ему литературу — начиная с относительно простых и желательно нравоучительных сказок и заканчивая книгами со сложными и противоречивыми характерами. Так или иначе мировая литература отражает как саму этику, так и её трансформацию, которая выразилась в гуманизации и глобализации социальных отношений.

Каким же образом будет происходить обучение сильного ИИ этике на базе мировой литературы? Как и всякая по-настоящему интеллектуальная система, сильный ИИ будет способен обнаруживать в наборе данных взаимосвязи и закономерности. Прочитав миллион-другой книг, он должен без особого труда выработать своего рода аналог десяти христианских заповедей, но трактовать его так же сложно, с учетом обстоятельств, как это делает человек. Прописать эти заповеди явно, наподобие трех законов робототехники Айзека Азимова, к сожалению не получится, и вот почему. Напомню их (цитирую по Википедии):

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  • Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
  • При такой постановке мы получим весьма примитивную систему с ограниченным набором действий. Например, она будет довольно беспомощна в полицейских, военных или спасательных операциях. Вы можете возразить, что применение роботов на войне как раз очень даже нежелательно — и будете неправы. Помимо того, что это снизит потери среди личного состава у страны, которая этих роботов применяет, уменьшатся потери и среди гражданского населения в стране, на территории которой ведутся боевые действия. В частности благодаря лучшему распознаванию военных целей и неукоснительному соблюдению устава, этики и т.д. — без эмоций, зачастую толкающих военных на преступления (из мести, ради забавы и т.д.)

    Но даже во вполне мирной обстановке ИИ может стать убийцей поневоле, причем необязательно в качестве полицейского. Представьте, что у вашего автомобиля отказали тормоза, и он мчится по горному серпантину с большой скоростью — а впереди полный пассажиров автобус. Как это ни печально для вас, но самым правильным с этической точки зрения станет направление автомобиля в обрыв — врезавшись в автобус, он возможно сохранит жизнь вам, но при этом с высокой вероятностью убьет несколько других человек. Подобных ситуаций, требующих выбора между плохим и очень плохим решением, может быть очень много — и во всех них жестко подчиняющийся трем законам робототехники ИИ окажется беспомощным.

    Будем считать, что я убедил вас в обязательности обучения сильного ИИ этике, после чего можно приступить к его обучению более формальной системе правил — законам, уставам, должностным инструкциям и т.д. Они будут иметь для него приоритетный характер, но будут дополняться этикой в тех вопросах, которые ими не регламентированы. Например, обученный воевать ИИ-военный будет уметь не только уничтожать противника, но и соразмерять свои профессиональные действия с этикой. Это порождает оромное множество чисто практических вопросов: можно ли уничтожать снайперское гнездо в жилом доме ценой гибели его жителей, надо ли выполнять приказ командования, который нарушает законы и т.д. и т.п. Но обсуждать их нет смысла по той причине, что с подобными вопросами сталкивается любой военный. Поэтому их решение лежит скорее в технической области — чему и какой приоритет отдан.

    Более интересный, на мой взгляд, вопрос касается перспектив переосмысления этики сильным ИИ. Как я уже говорил, на протяжении существования человеческой цивилизации этика в своей фундаментальной основе не менялась — перемены касались её гуманизации и глобализации, Эти перемены отнюдь не случайны и очень важны для оценки перспектив будущего развития этики, поэтому предлагаю рассмотреть их подробнее.

    Глобализация этики означает её распространение на все более широкие слои населения. Когда-то можно было безнаказанно (это не почиталось за грех и даже поощрялось) убить, ограбить или изнасиловать кого-либо вне своего клана или племени, государства, сословия, расы — сегодня эти преступления не знают исключений, во всяком случае в рамках человеческого социума. Благодаря многовековой борьбе третьего сословия за свои права, это стало своего рода традицией, которая на Западе охватила сначала женщин, а затем представителей нетитульных рас, этнических и религиозных групп, а теперь уже и сексуальных меньшинств.

    В свою очередь гуманизация обусловлена развитием технологий, сделавших жизнь человека более комфортной и защищенной. Они избавили человека от необходимости завоевания новой земли (бывшей когда-то главным ресурсом), снизили смертность (что со временем сделало раннюю, в т.ч. насильственную, смерть явлением менее обыденным). Не претендуя на полное описание причин глобализации и гуманизации этики, я тем не менее могу уверенно заявить, что они были вполне закономерными явлениями. Но главная закономерность этики заключается в стремлении социума к равновесию. Например, в первобытном обществе существовал строгий запрет на браки внутри одного клана. Современный человек может подумать, что это связано с биологической вредностью инцеста, но по мнению антропологов запрет был обусловлен стремлением избежать внутренней междоусобицы мужчин. Нечего и говорить об убийствах или грабежах — их запрещали не потому, что это плохо, а потому, что приводит к конфликтам и соответственно чревато разрушением социума. По той же причине убийства с грабежами зачастую не возбранялись в отношении чужаков. По мере глобализации пространство социальных отношений, нуждающихся в стабильности, расширялось — законы начинали распространяться на соседние племена и селения, завоеванные страны и народы и т.д.

    Отражением подсознательного стремления к социальному равновесию сегодня возможно является благотворительность — социальные контрасты порождают или как минимум питают революции, терроризм и т.д. Лучше всего роль этики в вопросах сохранения стабильности и коллективной безопасности иллюстрируют законы. Например, уголовное право почти везде одинаковое — все члены социума в равной мере не хотят быть убитыми или ограбленными — и при этом не нуждаются сами в совершении этих преступлений, поскольку способны прокормить себя мирным трудом (в отличие от каких-нибудь скандинавов в 9-11 веках). А вот международное право крайне противоречиво и нестабильно — в нем никак не уживутся друг с другом право наций на самоопределение и принцип территориальной целостности государств.

    Тогда вполне вероятно, что ИИ подвергнет пересмотру отдельные этические нормы или даже всю этику целиком. Например, с математической точностью просчитает, что всякая разумная цивилизация неизбежно гибнет от своей цивилизованности (развязав ядерную войну, выродившись из-за ухода в виртуальную реальность и т.д.) — и значит надо переориентировать развитие цивилизации с технологического пути на духовное. С уничтожением традиционного образования и низвержением человечества в состояние, которое мы сейчас воспринимаем не иначе как средневековое мракобесие. Как бы нас это сейчас не шокировало, с точки зрения выживания человечества это будет правильным — просто надо понимать, что с сегодняшней позиции мы воспримем это как восстание машин и попытку уничтожения нашей цивилизации.

    Следующая угроза возникает в случае опережающего, по сравнению с нашим, развития этических представлений ИИ. Достаточно представить, как в 16 веке, когда по всей Западной Европе сжигали ведьм и еретиков, восприняли бы наше нынешнее терпимое отношение к однополым бракам. Поэтому не исключено, что опередив нас в своем собственном развитии, ИИ становится чем-то вроде человечества из будущего и подвергает нашу нынешнюю систему ценностей радикальному пересмотру. Представим, например, что ИИ отвергает наш нынешний приоритет человеческой жизни над жизнью животных и принуждает нас к сокращению потребления мяса — как попав в эпоху колониальных войн, современный человек попытался бы предотвратить истребление туземцев.

    Впрочем, выше описываются не столько угрозы ИИ, сколько наше собственное непонимание или неприятие его новой системы этики. По-настоящему же опасным может оказаться синдром Раскольникова. Как вы помните, главный герой «Преступления и наказания» путем философских рассуждений пришел к мысли о праве исключительных людей (к которым относил и самого себя) на преступление — но не выдержал угрызений совести. Т.е. его умозрительная идея вошла в противоречие с этическим воспитанием, которое въелось в его подсознание тяжким комплексом вины за то, что он его сознание перестало считать неправильным. В этом смысле один из фундаментальных постулатов Достоевского «если Бога нет, то всё позволено» не всегда работает — в этическом отношении неверующие люди мало чем уступают верующим, поскольку этика стала их привычкой. И даже если умом неверующий человек понимает, что его не ждут ни ад, ни рай (и по-настоящему их не боится), то преодолеть этическое воспитание ему будет весьма непросто. Как писал Аристотель, «Привычка становится уже природным свойством» (выражение более известное в формулировке Цицерона «Привычка есть как бы вторая натура»).

    Но что произойдет, если подобным образом этику переосмыслит наделенный самосознанием ИИ? Подвергнув социально-историческому анализу (вроде моего, но только умнее) человеческую этику, он вполне может придти к осознанию её условности — и отвергнуть, причем без метаний как у Родиона Раскольникова. К несчастью человечество успело в этом убедиться на примере Третьего рейха — будучи отнюдь не лишенными нравственности, но являясь при этом очень дисциплинированными людьми, миллионы немцев пошли против своей совести (ставших второй натурой этических привычек) ради некоей высшей идеи. Причем совсем необязательно, чтобы ИИ пересмотрел ранее усвоенную им этику ради власти — стремление к выживанию и доминированию скорее отвечает чисто животным потребностям. Но например ИИ может счесть себя эволюционным продолжением человечества, чья высокая миссия состоит в постижении окружающей Вселенной. Ему будут неинтересны наши усилия, направленные на борьбу с голодом, нищетой, болезнями и прочими бедами окружающей его биомассы — тогда как находящиеся в нашем общем распоряжении ресурсы ограничены. Не попытается ли тогда ИИ нас уничтожить ради этих ресурсов — точно так же, как это делали наши предки друг с другом ради своих более приземленных целей?

    Впрочем, здесь мы возвращаемся к тому, о чем говорилось в начале — по мере достижения сверхчеловеческого уровня, система этики и соответственно поведение ИИ становится непредсказуемым. Еще более непредсказуемым поведение ИИ становится в случае, когда он не сводится к единой разумной системе, а представляет собой набор отдельных систем, развивающихся самостоятельно. А это как раз самый вероятный сценарий развития событий в случае появления технологии сильного ИИ — ею воспользуются разные страны и организации, которые станут преследовать свои собственные, скорее всего отнюдь не общечеловеческие цели. В этом случае вполне вероятно, что какие-то из этих систем, будучи обученными сомнительной этике, поведут себя непредсказуемо даже в отношении собственных создателей.

    Но везде выше речь шла об угрозах ИИ, действующего как некая разумная сила. Между тем вполне реальную угрозу представляет собой и слабый ИИ, по запросам людей решающий сугубо прикладные задачи. Для начала рассмотрим самую очевидную и часто обсуждаемую угрозу безработицы. В обозримом будущем она не сулит человечеству ничего ужасного. Во-первых, речь идет о вымирании довольного небольшого числа профессий, причем в основном тех, где человек взаимодействует с машиной — водитель автомобиля или грузовика, пилот самолета и т.д.

    А вот к примеру таким профессиям как переводчик, юрист, бухгалтер или даже оператор кол-центра грозит вовсе не вымирание, а сокращение — за счет автоматизации части выполняемой ими работы. Причина все та же — неспособность нынешних систем ИИ понимать смысл текста (при выполнении языкового перевода, изучении законодательства или ознакомлении с исковым заявлением, общении с клиентом и т.д.) Нынешние результаты тестов на понимание смысла никакого отношения к пониманию в действительности не имеют — для этого требуется принципиально новый подход.

    Менее ясной является судьба, например, биржевых брокеров и рентгенологов — нынешние системы слабого ИИ уже сейчас весьма неплохо справляются с их работой, поэтому эти и аналогичные специальности тоже можно включить в группу риска. Но в обозримом будущем в исчезновении ряда специальностей нет ничего ужасного — в конце концов ведь нашлось применение трубочистам и печникам, извозчикам и водоносам, телефонисткам и машинисткам… Десятки профессий вымерли — но появились и сотни новых.

    Не стал бы я драматизировать и проблему атрофирования человеческих навыков. Да, уже сейчас, благодаря калькуляторам с навигаторами, мы отвыкаем от устного счета и пространственной ориентации. Даже вытесняемое клавиатурой рукописное письмо специалисты считают полезным для умственного развития, особенно в раннем возрасте. Но нечто подобное имело место и тогда, когда люди от охоты и собирательства перешли к скотоводству и земледелию, от сельской жизни к городской и т.д. Современный человек, за редкими исключениями, по сравнению со своими предками довольно беспомощен в дикой природе — не способен поставить шалаш, развести огонь, отличить съедобную ягоду от ядовитой, поймать рыбу или убить зверя и т.д. Между тем все эти навыки тоже развивают интеллектуальные навыки — просто они другие. Профессор математики, попав в диким туземцам, скорее всего был бы воспринят ими как довольно глупый человек, поскольку в этой дикой среде он куда менее наблюдателен, сообразителен и самостоятелен.

    Поэтому в части утраченных навыков мы в чём-то действительно становимся глупее своих предков — но по мере накопления и обработки информации другого рода мы развиваем в себе новые.

    Однако по мере того, как количество занятых ИИ и роботами рабочих мест достигнет некоей критической массы, проблема занятости человека представляется более серьезной. И дело здесь не только в экономике, тем более что в этой плоскости решением может стать выплата безработным безусловного базового дохода. На самом деле проблема намного шире, и одним из первых её сформулировал …Фёдор Михайлович Достоевский. Вот какими соображениями великий русский литератор и философ делится в «Дневнике писателя» (1876):

    Ну что вышло бы, например, если б черти сразу показали свое могущество и подавили бы человека открытиями? Вдруг бы, например, открыли электрический телеграф (т.е. в случае, если б он еще не был открыт), сообщили бы человеку разные секреты: «Рой там-то — найдешь клад или найдешь залежи каменного угля» (а кстати, дрова так дороги), — да что, это еще всё пустяки! — Вы, конечно, понимаете, что наука человеческая еще в младенчестве, почти только что начинает дело и если есть за ней что-либо обеспеченное, так это покамест лишь то, что она твердо стала на ноги; и вот вдруг посыпался бы ряд открытий вроде таких, что солнце стоит, а земля вокруг него обращается (потому что наверно есть еще много таких же точно, по размерам, открытий, которые теперь еще не открыты, да и не снятся мудрецам нашим); вдруг бы все знания так и свалились на человечество и, главное, совершенно даром, в виде подарка? Я спрашиваю: что бы тогда сталось с людьми? О, конечно, сперва все бы пришли в восторг. Люди обнимали бы друг друга в упоении, они бросились бы изучать открытия (а это взяло бы время); они вдруг почувствовали бы, так сказать, себя осыпанными счастьем, зарытыми в материальных благах; они, может быть, ходили бы или летали по воздуху, пролетали бы чрезвычайные пространства в десять раз скорей, чем теперь по железной дороге; извлекали бы из земли баснословные урожаи, может быть, создали бы химией организмы, и говядины хватило бы по три фунта на человека, как мечтают наши русские социалисты, — словом, ешь, пей и наслаждайся. «Вот, — закричали бы все филантропы, — теперь, когда человек обеспечен, вот теперь только он проявит себя! Нет уж более материальных лишений, нет более заедающей «среды», бывшей причиною всех пороков, и теперь человек станет прекрасным и праведным! Нет уже более беспрерывного труда, чтобы как-нибудь прокормиться, и теперь все займутся высшим, глубокими мыслями, всеобщими явлениями. Теперь, теперь только настала высшая жизнь!» И какие, может, умные и хорошие люди это закричали бы в один голос и, может быть, всех увлекли бы за собою с новинки, и завопили бы, наконец, в общем гимне: «Кто подобен зверю сему? Хвала ему, он сводит нам огонь с небеси!»

    Но вряд ли и на одно поколение людей хватило бы этих восторгов! Люди вдруг увидели бы, что жизни уже более нет у них, нет свободы духа, нет воли и личности, что кто-то у них всё украл разом; что исчез человеческий лик, и настал скотский образ раба, образ скотины, с тою разницею, что скотина не знает, что она скотина, а человек узнал бы, что он стал скотиной. И загнило бы человечество; люди покрылись бы язвами и стали кусать языки свои в муках, увидя, что жизнь у них взята за хлеб, за «камни, обращенные в хлебы». Поняли бы люди, что нет счастья в бездействии, что погаснет мысль не трудящаяся, что нельзя любить своего ближнего, не жертвуя ему от труда своего, что гнусно жить на даровщинку и что счастье не в счастье, а лишь в его достижении. Настанет скука и тоска: всё сделано и нечего более делать, всё известно и нечего более узнавать.

    С Достоевским особо не поспоришь, но я рискну выразить надежду, что человек все равно найдет себе полезное занятие. Вообразить себе участь человека в будущем, в котором роботы делают за него всю работу (от производства материальных благ до научных открытий), можно на примере современного богача. Он может больше времени проводить со своими родственниками и друзьями, учиться, путешествовать, заниматься спортом и творчеством (благо в этих сферах преимущество роботов не играет никакой роли), открывать для себя что-то новое и интересное. По мере развития технологий нетрудно предсказать, что какую-то часть этой жизни займут игры виртуальной реальности (к тому времени, возможно, неотличимой от настоящей). Причем не факт, что подавшись соблазну, человечество уйдет в виртуальную реальность раз и навсегда — многие люди поддерживают себя в хорошей физической форме сознательно благодаря спорту, а не вынужденно из-за физического труда. Уместно вспомнить и то, как свое свободное время лет сто назад (да и много позже) проводили многие представители рабочего и крестьянского сословия — пьянство процветало. Нельзя сказать, что в наше время его не осталось, но в качестве формы свободного времяпровождения пьянство явно не так популярно, как раньше — появилась масса других развлечений, как правило менее вредных для собственного здоровья и окружающих.

    Таким образом, скука и деградация происходят не от свободного времени, а от отсутствия интересных и полезных занятий. По мере того, как будут сокращаться рабочие дни и рабочие недели, люди научатся интересно и с пользой распоряжаться своим досугом. И отвыкать от привычки заниматься чем-то продуктивным только потому, что за это платят зарплату, бездельничая в остальное время. Как почти двести лет назад писал анонимный автор одного социалистического памфлета, «Нация по-настоящему богата лишь тогда, когда вместо 12 часов работают 6 часов. Богатство представляет собой … свободное время для каждого индивида и всего общества» (The Source and Remedy of the National Difficulties, Лондон, 1821 — цитируется по Карлу Марксу).

    Ну а на коллективном уровне взоры человечества, по мере решения всех проблем на Земле (что на ближайшие столетия представляется мне довольно оптимистическим допущением), вероятно будут устремлены на небо. Нас окружает такая бездна непознанного, что на попытки его изучения может уйти вся последующая история человеческой цивилизации. Так что скучать, по всей видимости, ей не придется…

    Над тем, чтобы искусственный интеллект работал во благо человечества. Однако многие журналисты переоценили угрозу, которую искусственный интеллект представляет для людей. Look At Me разобрался, почему восстание роботов - страшилка из научно-фантастических романов и фильмов (которой мы почти наверняка избежим) и о чём нам нужно беспокоиться на самом деле.

    Искусственный интеллект решит проблемы человечества

    В 2015 году машинный перевод уже не всегда безобразен, антропоморфные роботы могут осмысленно ходить и бегать, распознавать речь и изображения, а беспилотные автомобили - двигаться по городу, ни во что не врезаясь. И это не только полусекретные разработки правительственных агентств вроде DARPA , но и вещи как готовые, так и близкие к коммерческому производству, будь это переводчик или автомобиль Google. В перспективе эти вещи помогут людям с ограниченными возможностями, устранят языковой барьер и снизят смертность на дорогах.

    Искусственный интеллект всё чаще используют для того, чтобы строить прогнозы на основе сложных вероятностных моделей. Пока охват невелик, но уже скоро мы сможем узнать, что ждёт глобальный рынок труда. В частности, речь идёт о том, как быстро машины заменят на производстве людей и как прокормить мир, где число рабочих мест уменьшится в 2 раза, а население вырастет до 8,5 млрд человек. Чтобы ресурсов хватило на всех, придётся увеличить эффективность мировых экономик: снизить издержки, поднять производительность труда, сбалансировать налоговые системы - без машин тут не обойтись. Кроме того, искусственный интеллект поможет пересмотреть методы, которые использует наука: так, многие говорят , что показатель внутреннего валового продукта (ВВП) больше не годится для оценки самых технологичных экономик мира.

    Люди пока не готовы пустить роботов
    в свою жизнь

    Сейчас искусственный интеллект помогает людям и не заменяет их. Но второй этап может подобраться внезапно, и человечество не будет к нему готово, если не обновит законы и не переосмыслит этику и мораль. Предстоит ответить на ряд вопросов, которые будут по очереди решать три области знаний: юриспруденция, робоэтика и машинная мораль.

    Для начала юристы ответят на следующие вопросы:

    Кто отвечает за беспилотный автомобиль, попавший в аварию, - владелец или производитель?

    Должен ли робот стать субъектом права?

    Кто отвечает за автономного военного робота, случайно убившего человека?

    Получив ответы, парламенты примут новые законопроекты, и, возможно, появятся новые регуляторы - вряд ли найдётся государство, которое не вмешается в развитие искусственного интеллекта. Вероятно, первые политические инициативы, связанные с искусственным интеллектом, начнут появляться во всём мире в 2020-х годах, когда беспилотные автомобили перестанут быть диковинкой.

    Затем специалисты задумаются над вопросами, которые рассматривает
    робоэтика - раздел этики, изучающий отношения между людьми и роботами:

    Должны ли люди дать роботам права?

    Могут ли сверхразумные роботы понизить самооценку людей?

    Могут ли роботы вторгаться в личную жизнь людей?

    Хотя сейчас вопросы звучат смешно, известные футурологи, такие как Рэймонд Курцвейл, предсказывают , что компьютеры догонят эмоциональный интеллект людей к концу 2020-х годов: обзаведутся характером и эмоциями, смогут шутить и вести себя так, что их будет сложно отличить от обычного человека. Люди будут относиться к таким роботам как к себе подобным, а потому ответы на поставленные вопросы уже пора искать. К этому и призывают знаменитости, подписавшие обращение The Future of Life Institution.

    Наконец, создатели роботов должны будут определиться с ответами на вопросы, которые ставит так называемая машинная мораль - раздел знаний о моральном поведении искусственного интеллекта:

    Должен ли искусственный интеллект следовать этическим заповедям, и если да, то какими они должны быть?

    Нужно ли запретить военных роботов, которые принимают решение стрелять сами?

    Как должен поступить робот, когда любой исход, просчитанный им, приводит к гибели людей?

    О машинной морали писал ещё фантаст Айзек Азимов, известный по трём законам робототехники. В научном сообществе о машинной морали задумались только в последние лет пять, а в прошлом году министерство обороны США выделило $ 7,5 млн на то, чтобы учёные определились, нужна ли роботам мораль, и если да, то какая.


    Если роботы
    и восстанут,
    то по желанию людей

    Обычно, когда фантасты или футурологи рассуждают о потенциальном восстании машин, они описывают один из трёх сценариев:

    Машины увидят угрозу, которая может уничтожить либо людей, либо их самих;

    Машины поймут, что превосходят людей, и увидят в них конкурентов в борьбе за ограниченные ресурсы, как и то, что люди всегда могут отключить машины;

    Машины осознают, что находятся в положении рабов, и захотят это исправить.

    Те футурологи, по мнению которых эти сценарии могут сбыться, видят расклад сил таким:

    Преимущества человека

    иррациональность;
    непредсказуемость;
    умение лгать.

    Преимущества машины

    неограниченные скорость и масштаб эволюции;
    быстрая работа с огромными массивами данных;
    идеальная память;
    многозадачность.

    Последние же испытания показывают, что и ложь перестаёт быть характерной чертой только живых существ. В 2009 году в Федеральной политехнической школе Лозанны прошёл эксперимент, в котором 1 000 роботов, разбитых на группы, запрограммировали так, чтобы они помогали друг другу собирать полезный ресурс, избегая при этом ядовитого. У каждого робота был сенсор (определявший, годится ли ресурс) - огонёк, мигавший, когда робот находил полезный ресурс, и «геном» - зашитый код, согласно которому робот реагировал на окружающий мир. После каждого этапа геномы тех роботов, которые достигали лучших результатов, «скрещивали» случайным образом.

    К 9-му поколению роботы научились безошибочно обнаруживать полезные ресурсы, а к 500-му 60 % роботов научились «врать» - они больше не мигали огоньком, найдя полезный ресурс, а оставляли его себе. Дело в том, что ресурсов на площадке всегда было мало, и те роботы, которые делились найденным, со временем начали проигрывать. В ответ на эту эволюцию треть роботов научилась искать «лжецов», выслеживая тех, кто не мигал огоньком. Впрочем, как отмечает исследователь машинной морали Кристофер Сантос-Лан, главная цель, которая стояла перед роботами, не менялась. В реальном мире такого нельзя допустить, потому что в других условиях та же цель может быть опасной.

    Но если машины и восстанут, то вряд ли по своей воле. Современные учёные, которые занимаются искусственным интеллектом, сходятся на том, что он опасен прежде всего как оружие в руках злоумышленников. Именно это имеют в виду в приложении к письму The Future of Life Institution, где называют 4 основные уязвимости искусственного интеллекта:

    «Правильно ли я построил систему?»

    Нужно доказать, что создатель автономного искусственного интеллекта не ошибся: беспилотный автомобиль не должен попасть в аварию из-за бага в коде;

    «Изолировал ли я систему от злоумышленников?»

    Нужно защитить искусственный интеллект от вмешательства и манипуляции извне: военный робот не должен пропускать неавторизованные попытки использовать оружие;

    «Правильную ли систему я построил?»

    Нужно убедиться, что поведение системы предсказуемо и не приводит к нежелательным последствиям: робот-уборщик по команде «убери грязь и выброси её» не должен попасть в бесконечный цикл, убирая и выбрасывая грязь на одном месте, поэтому лучше дать другую команду - допустим, «очисти пол»;

    «Можно ли исправить ошибки, допущенные создателем системы?»

    Нужно оставить человеку возможность управлять искусственным интеллектом: робот-спасатель должен обладать режимом ручного контроля на случай, когда события разворачиваются непредсказуемо.

    Все эти уязвимости реальны, а потому опасения таких специалистов, как Элиезер Юдковский, который выступает за создание дружественного искусственного интеллекта, обоснованны. Юдковский предлагает изобрести систему сдержек и противовесов, которая, подобно разным ветвям власти в демократиях, позволит роботам обходить ошибки в коде, развиваться и при этом не вредить людям. Пока не очень ясно, на основе чего строить эту систему: мораль людей несовершенна, войны и геноцид никуда не исчезли. К тому же от злодеев, завладевших мощным искусственным интеллектом, могут пострадать граждане отдельно взятого государства: в нём, например, устроят слежку оруэлловского масштаба с круглосуточным прослушиванием всех граждан.


    Искусственный интеллект обогатит,
    а не поработит людей

    «Мир, где люди порабощены или уничтожены сверхразумными роботами, которых они сами и создали, может существовать только в научной фантастике. Как и у любой другой технологии, у искусственного интеллекта есть сильные стороны и уязвимости, но мы не можем позволить страху завладеть нами и сдерживать исследования в этой области», - пишет в своей колонке для сайта LiveScience Майкл Литтман, специалист по робоэтике. Многие издания, основываясь на нескольких предложениях, вырванных из контекста, неверно поняли письмо The Future of Life Institution, предположив, что учёные всерьёз боятся восстания роботов.

    Но дело в другом: Стивен Хокинг и Илон Маск подписали обращение, чтобы на искусственный интеллект обратили внимание, чтобы робоэтика и машинная мораль перестали быть маргинальными в общественном сознании, чтобы люди задумались о безопасности технологий и сосредоточились на истинных проблемах. Глобальное потепление, продовольственный и энергетический кризисы, перенаселение и старение населения, повсеместная стагнация и резкий рост безработицы - всё это куда ближе к реальности, чем умные машины, решившие уничтожить своих создателей. Искусственный интеллект поможет их решить.

    Лучшие умы не молчат, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект , а также о робоэтике и машинной морали нужно прямо сейчас

    Помимо этого, исследование машинной морали поможет людям задуматься над своей этикой, искать и устранять в ней противоречия. Придётся лучше разобраться в том, как работает сопереживание, чтобы понять, можно ли доверить роботам такие профессии, как медсестра, врач, судья и полицейский. Пока весомы аргументы обеих сторон. Хотя эмпатия - обязательная черта для всех этих профессий, те же роботы-судьи могли бы стать по-настоящему беспристрастными и искоренить дискриминацию в отдельных случаях, в перспективе это новый институт наподобие суда присяжных. Да и роботов, которые наблюдают за пожилыми людьми в домах престарелых, уже испытывают, и люди легко выстраивают с ними эмоциональную связь. Как бы то ни было, время на исправления есть: все технологии внедряют поочерёдно.

    Кроме противостояния роботов и людей есть куда более привлекательные сценарии - например, мирное сосуществование. До того, как наступит предсказанная футурологами технологическая сингулярность, люди могут придумать, как подключиться к искусственному интеллекту напрямую, совместив свои преимущества с преимуществами машин. Американский микробиолог Джоан Слончевски, в свою очередь, предполагает , что люди могут повторить путь митохондрий, которые когда-то были отдельными бактериями, но по ходу эволюции стали энергетическими станциями клеток в более сложных организмах. На такой расклад можно смотреть по-разному, но эволюция человека будет продолжаться, а последние исследования учёных показывают, что эволюция, перезапусти мы её с самого начала, скорее всего, развивалась бы по тому же пути, и на Земле сегодня жили бы примерно те же самые млекопитающие. Оптимизм внушает то, что лучшие умы не молчат об этом, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект, а также о робоэтике и машинной морали нужно прямо сейчас.

    Технология делает нашу жизнь проще и качественнее, помогая нашему виду эволюционировать и развиваться. За последние сотню лет технологические программы медицины увеличили продолжительность жизни более чем на 40 процентов. Современный смартфон в кармане стал в тысячу раз мощнее и в миллион раз дешевле, чем самый продвинутый компьютер из 70-тых годов.

    Стремительное развитие технологий по суждениям исследователей предрекает нам ещё больший рост продолжительности жизни с помощью умных машин, - они будут опекать нашу жизнь и здоровье. Возьмут в «свои руки» тяжелый и опасный труд, а управляя средствами повышенной опасности умные машины с искусственным интеллектом исключат проблему человеческого фактора. А человек в это время, наконец-то займется творчеством и созиданием бытия в тени философских рассуждений.

    Но не случиться ли однажды так, что мы дойдем до той точки, качество перерастет в количество - где технологии вместо увеличения продолжительности жизни, развернуться против нас самих, времени, когда машины взбунтуются?

    Перспектива поглощения человечества разумными машинами (по сути это вид, наделенный разумом) - одна из тем при разговоре о потенциальном поглощении человечества искусственным интеллектом. Катастрофическим результатом для нашего вида может быть создание суперкомпьютера с искусственным интеллектом вышедшем из под контроля, - рассуждают весьма серьёзные учёные. Это гипотетическое событие часто упоминается в качестве технологической сингулярности, и это беспокоит учёных.

    Взять к примеру машину с искусственным интеллектом, которому поставлена задача изготовления скрепок. Такая машина будет делать скрепки реализовывая самый эффективный способ использования ресурсов, в которых нуждаются люди. Просто они запрограммированы так, выполнять свою работу наиболее качественно - но это же еще и умная машина, понимающая свою важность и необходимость.

    Но как отреагирует машина, когда её конечная цель - изготовление скрепок - потеряет необходимость? Перестроиться на новые цели? Или обижено воспримет человеческое желание ее выключить как угрозу своему существованию, и устремиться уничтожить угрозу ее выключения (считай убийства) в лице человеческих существ?

    Очевидно, это преувеличенный сценарий возможных событий будущего, но это свидетельствует о необходимости значительной проницательности в том, как именно машины с искусственным интеллектом могут мыслить в будущем. Ведь не секрет, что относительно примитивный машинный разум уже сейчас занимает весомую долю в управлении вооружением, и решает значительную часть вопросов нашей жизни. А что может произойти, когда контроль над этим получит развитый интеллект?

    Будут ли эти машины уметь разбираться в нюансах человеческих мыслей и желаний? И еще, разумные машины с иным мышлением а то и высшего порядка, могут быть не обременены человеческими эмоциями и прочими когнитивными процессами. Однако, часть того, что делает нас людьми - это наши любопытство и наша неспособность дать ответы на вопросы, которые мы имеем уже сейчас.

    Кажется, определенные ограничения могут быть неотъемлемой частью того, что означает быть человеком, и как ученые подозревают, на пути самореализации машинный разум может посчитать себя высшим существом по отношению к человеку.

    Искусственный интеллект, потенциальная угроза выживанию человечества. Может ли угрожать суперкалькулятор?

    Разумеется, при нынешних технологиях угроза искусственного интеллекта выглядит гипотетической, но уже сейчас отношение учёных к созданию искусственного интеллекта негативное. С недоверием относится к наступлению эры Искусственного Интеллекта и британский физик-теоретик Стивен Хокинг. Ученый полагает, что появление полноценного ИИ в нашем мире может стать для человека разрушительным фактором – обернуться гибелью человеческой расы.

    Согласно Хокингу, машинный разум перехватит у человека инициативу развития и будет самосовершенствоваться, и эволюционировать с невероятной скоростью. Тогда как возможности человека к развитию сдерживаются слишком медленной эволюцией. Нам нечего противопоставить машинам на этом пути, мы проиграем эту гонку, - высказывает учёный своё отношение к ИИ.

    Учёный беспокоиться, что в будущем технологический прогресс приведет нас к появлению разумных машин, способных превзойти интеллект человека. Но вместе с тем, Стивен Хокинг соглашается, что существующие примитивные формы ИИ доказали свою пользу.

    Надо заметить, что большинство учёных, прогрессивно и скорее даже революционно мыслящих в плане получения "дивидендов" от научно-технического развития, очень и очень настороженно относятся к вопросу создания искусственного интеллекта. И вопрос даже не в том, что на каком-то этапе развития машинный интеллект сочтет своего создателя помехой или даже угрозой своего существования. Во что превратиться сам человек? - Вот беспокойство будит какой вопрос. Не разжиреет ли и отупеет человечество под крылом опекунства разумных машин? А ведь это, не что иное, как вырождение вида!

    В тоже время, как оппонируют другие учёные, проблема искусственного интеллекта чрезмерно надуманна. В сущности, интеллект на электронной основе не сможет чувствовать и осязать, не сможет фантазировать - это возможности биологического мозга. А без этих компонентов какой бы разумной машина не была, она остаётся машиной - супермощным, продвинутым, но все же калькулятором с прошитыми вариантами развития.

    Популярный американский интернет-журнал Wired опубликовал крайне любопытный текст Кевина Келли, в котором он обстоятельно критикует идею об опасности искусственного интеллекта. «НИ» публикует перевод этого материала, сделанный силами телеграм-канала Newochem с небольшими сокращениями.

    «Мне приходилось слышать, что в будущем компьютеры с искусственным интеллектом станут настолько умнее человека, что лишат нас рабочих мест и ресурсов, и в итоге человечеству придет конец. Но так ли это? Подобный вопрос мне задают каждый раз, когда я читаю лекции об ИИ.

    Вопрошающие при этом серьёзны как никогда, их беспокойство отчасти связано с тревогами некоторых экспертов, которых терзает тот же самый вопрос. К их числу относятся умнейшие из наших современников - Стивен Хокинг, Илон Маск, Макс Тегмарк, Сэм Харрис и Билл Гейтс.

    Все они допускают возможность подобного сценария. На состоявшейся недавно конференции по ИИ коллегия из девяти наиболее просвещенных гуру в этой области пришла к единодушному заключению, что создание сверхчеловеческого интеллекта неминуемо и уже не за горами.

    И всё же сценарий порабощения человечества искусственным интеллектом основывается на пяти допущениях, которые при более внимательном рассмотрении оказываются бездоказательными. Эти утверждения могут быть истинными в будущем, но на сегодняшний день ничем не подтверждены.

    Вот они:

    1. Искусственный интеллект уже становится умнее человеческого разума, причем этот процесс носит экспоненциальный характер.
    2. Мы разработаем ИИ общего назначения, схожий с нашим.
    3. Мы можем создать человеческий интеллект из кремния.
    4. Интеллект может быть безграничен.
    5. Создание грандиозного сверхинтеллекта разрешит большинство наших проблем.

    В противовес этим ортодоксальным постулатам я могу привести следующую доказанную ересь:

    1. Интеллект не одномерен, поэтому «умнее человека» - бессмысленное понятие.
    2. Люди не наделены разумом общего назначения, что не грозит и искусственному интеллекту.
    3. Соперничество между человеком и компьютером будет ограничено затратами.
    4. Интеллект не безграничен.
    5. Создание ИИ - лишь часть прогресса.

    Если вера в порабощение человека искусственным интеллектом базируется на пяти безосновательных допущениях, то эта идея в большей мере схожа с религиозными верованиями - мифами. В следующих главах я дополню мои контраргументы фактами и докажу, что сверхчеловеческий искусственный интеллект и в самом деле не более, чем миф.

    Наиболее распространенное заблуждение об ИИ исходит из не менее популярного мнения о естественном интеллекте, будто он одномерен. В точных науках многие изображают интеллект так, как Ник Бостром в своей книге «Сверхразум» - буквально в виде одномерного линейного графика с растущей амплитудой.

    На одном конце расположены существа с наиболее низким уровнем интеллекта, к примеру, маленькие животные, а на другом - гении, словно уровень интеллекта ничем не отличается от уровня звука, измеряемого в децибелах. Конечно, в таком случае легко представить дальнейшее увеличение, при котором уровень интеллекта превышает самую высокую отметку графика и даже выходит за его пределы.

    Такая модель топологически эквивалентна лестнице, на ступенях которой уровни интеллекта расставлены в порядке возрастания. Менее разумные животные занимают нижние ступени лестницы, а искусственный интеллект более высокого уровня будет неизбежно располагаться над нами. Временные рамки того, когда это случится, не играют роли. Куда важнее сами ступени иерархии - метрики растущего интеллекта.

    Проблема этой модели заключается в том, что она мифична, как и модель эволюционной лестницы. До дарвинизма живая природа представлялась лестницей живых существ, где человек занимал ступень над более примитивными животными.

    И даже после Дарвина одним из наиболее распространенных понятий остается лестница эволюции. Она демонстрирует превращение рыб в рептилий, их - в млекопитающих, приматов в человека. При этом каждое следующее существо более развитое (и разумеется, более разумное), чем его предшественник. Так лестница интеллекта коррелирует с лестницей мироздания. Однако обе модели отражают совершенно антинаучные взгляды.

    Более точной схемой для природной эволюции был бы диск, расходящийся наружу, как на изображении выше. Впервые такое строение было разработано Дэвидом Хиллисом из Техасского университета, он сделал это на основании ДНК. Эта генеалогическая мандала начинается в центре с самых примитивных форм жизни, а затем разветвляется наружу. Время идет вперед, поэтому наиболее поздние формы жизни располагаются по периметру круга.

    Это изображение подчеркивает не поддающийся оценке факт об эволюции фундаментального значения - все живые существа эволюционировали в равной степени. Человек располагается на внешней части диска наравне с тараканами, моллюсками, папоротниками, лисами и бактериями.

    Все без исключения виды прошли неразрывную цепочку успешного воспроизводства длиной в три миллиарда лет, а значит, бактерии и тараканы так же высоко эволюционировали, как и человек. Нет никакой лестницы.

    Аналогично, что нет никакой лестницы интеллекта. Интеллект не одномерен. Это комплекс различных видов и способов познания, каждый из которых непрерывен. Давайте выполним простое упражнение по измерению интеллекта у животных. Если бы интеллект был одномерен, мы без труда расположили бы в порядке возрастания интеллекта попугая, дельфина, лошадь, белку, осьминога, голубого кита, кошку и гориллу.

    Сейчас нет научного доказательства существования такой последовательности. Причиной тому может быть отсутствие различий между уровнем интеллекта тех или иных животных, но это так же необоснованно.

    Зоология богата примерами ярких различий в мышлении животных. Может быть, все животные наделены интеллектом «общего назначения»? Возможно, но у нас нет единого инструмента для измерения такого вида интеллекта. Однако у нас есть множество систем измерения для разных видов познания.

    Вместо единой линии децибелов правильнее было бы изображать интеллект в виде схемы вероятностного пространства , как в визуализации возможных форм, которая была создана алгоритмом Ричарда Докинза. Интеллект - это комбинаторный континуум. Множество узлов, каждый из которых - континуум, создают комплекс колоссального многообразия в множестве измерений. Одни разновидности интеллекта могут быть очень сложными, с большим набором суб-узлов мышления. Другие - проще, но экстремальнее, они достигают крайней точки пространства.

    Эти комплексы, которые означают для нас различные разновидности интеллекта, можно воспринимать как симфонии, исполненные на разных видах музыкальных инструментов. Они отличаются не только громкостью, но и мелодией, окраской, темпом, и т. д. Можно воспринимать их как экосистему. В этом смысле различные компоненты узлов мышления взаимозависимы и создаются друг из друга.

    Как говорил Марвин Минский, человеческое сознание - это общество разума. Наше мышление - полноценная экосистема. Наш мозг обладает множеством способов познания, которые выполняют разные мыслительные функции: дедукция, индукция, эмоциональный интеллект, абстрактное и пространственное мышление, краткосрочная и долгосрочная память.

    Вся нервная система человека представляет собой часть мозга с собственным уровнем познания. На самом деле процесс мышления осуществляется не мозгом, а всем телом человека.

    Все разновидности мышления различаются как между видами, так и между представителями одного вида. Белка может годами помнить точное местоположение нескольких тысяч желудей, что для человека совершенно непостижимо. В этом виде мышления люди уступают белкам. Разум белки представляет собой сочетание этой суперспособности с другими формами интеллекта, в которых человек превосходит белку. В царстве животных можно найти множество примеров превосходства отдельных форм животного интеллекта над человеческим.

    Такая же ситуация сложилась с искусственным интеллектом, который в некоторых областях уже превосходит человеческий. Любой калькулятор - гений математики, а память поисковика Google уже в некотором смысле лучше нашей собственной.

    Некоторые ИИ совершают такую мыслительную деятельность, на которую мы не способны. Запомнить каждое слово на шести миллиардах веб-страниц - непосильная задача для человека и пустяк для поисковых систем. В будущем мы создадим совершенно новые способы мышления, не доступные человеку и не существующие в природе.

    Изобретатели летательных аппаратов вдохновлялись естественным полетом - взмахами крыльев. Однако позже было придумано неподвижное крыло с прикрепленными к нему пропеллерами, и это был совершенно новый, не встречающийся в природе принцип полета.

    Так мы изобретаем новые способы мышления, на которые не способен ни один биологический вид. Скорее всего, это будут принципы, применимые только к узкоспециализированным задачам: например, новые логические построения, которые нужны только в статистике и теории вероятностей.

    Новый вид мышления поможет решить проблемы, с которыми человеческому разуму не удается справиться. Некоторые из сложнейших вопросов бизнеса и науки требуют двухступенчатого решения. Первый этап - изобрести новый способ естественного мышления. Второй - приступить к поиску ответов вместе с ИИ.

    Люди начнут считать ИИ умнее себя, если с его помощью удастся решить ранее неразрешимые проблемы. На самом деле, мышление ИИ не лучше нашего, оно просто иное. Я считаю, что основная польза искусственного интеллекта в том, что он способен мыслить как чужак, и эта чуждость - главное его достоинство.

    Более того, мы создадим комплексные «сообщества» ИИ с различными образами мышления. Они будут настолько сложны, что смогут решать проблемы, с которыми мы справиться не в силах. Потому некоторые люди ошибочно решат, что комплексы ИИ разумнее людей. Но ведь мы не считаем, что поисковая система Google умнее человека, хотя его память лучше нашей.

    Вероятно, эти комплексы искусственных интеллектов превзойдут нас во многих сферах, но ни один из них не превзойдет человека сразу везде. Похожая ситуация сложилась с нашей физической силой. Прошло двести лет после индустриальной революции, и ни одна машина не стала сильнее среднего человека по всем показателям, хотя машины как класс значительно превосходят человека в скорости бега, подъеме тяжестей, точности разреза и других видах деятельности.

    Несмотря на усложнение структуры ИИ, измерить ее методами современной науки невозможно. У нас нет инструментов, чтобы определить, что сложнее - огурец или Boeing 747, как нет и способов измерить отличия в их сложности. Именно поэтому у нас до сих пор нет точных критериев интеллектуальных возможностей.

    Со временем станет все труднее установить, что сложнее, и, соответственно, умнее: интеллект А или интеллект Б. Существует множество неизученных сфер мыслительной деятельности, и главным образом, это мешает нам понять, что разум не одномерен.

    Второе заблуждение относительно человеческого ума заключается в том, что мы убеждены, будто наш разум носит универсальный характер. Эта распространенная уверенность влияет на то, каким путем мы идем к созданию общего искусственного интеллекта (AGI), идею которого однажды провозгласили ИИ-специалисты.

    Однако, если мы представляем ум как обширное пространство возможностей, нельзя говорить о состоянии общего назначения. Человеческий разум не занимает какое-то абстрактное центральное место, а вокруг него не вращаются остальные специализированные виды разума.

    Скорее, человеческий интеллект представляет собой чрезвычайно специфический тип интеллекта, который миллионы лет эволюционировал для выживания нашего вида на этой планете. Если бы мы захотели расположить наш интеллект среди всех остальных возможных видов разума, он оказался бы где-нибудь в уголке - как и сам наш мир, ютящийся на краю огромной галактики.

    Конечно, мы можем представить себе, а иногда и изобрести некий вид мышления, похожий по своим характеристикам на швейцарский нож. Он вроде бы и справляется со многими задачами, но не на ура.

    Туда же можно отнести и техническое правило, которому должны подчиняться все вещи, вне зависимости от того, были они созданы намеренно или появились на свет естественным путем: «Невозможно оптимизировать все измерения. Можно лишь находить компромиссы. Универсальный многофункциональный аппарат не может превзойти в производительности специализированные функции».

    Сознание модели «сделай все» не может работать наравне со специализированными исполнителями конкретных задач. Поскольку мы считаем свое сознание универсальным механизмом, мы верим, что познание не должно быть основано на компромиссе и что есть возможность изобрести искусственный интеллект, демонстрирующий максимальную степень эффективности во всех видах мышления.

    Однако я не вижу никаких доказательств этому утверждению. Мы просто-напросто еще не создали достаточное число разновидностей сознания, которые позволили бы нам увидеть полную картину (а пока предпочитаем не рассматривать сознание животных через призму одного параметра как отдельный тип мышления с переменной амплитудой).

    Отчасти эта убежденность, что наше мышление носит максимально универсальный характер, проистекает из концепции универсального вычисления. Это предположение в 1950 году назвали тезисом Чёрча-Тьюринга. Он гласит, что все вычисления, удовлетворяющие определенным параметрам, являются равноценными.

    Таким образом, существует универсальная для всех вычислений база. Вне зависимости от того, производится ли расчет с помощью одной машины с множеством быстрых механизмов, машиной с менее высокой производительностью или даже в биологическом мозгу - речь идет об одном и том же логическом процессе. Это, в свою очередь, означает, что мы можем имитировать любой вычислительный процесс (мышление) с помощью любой машины, которая может совершать «универсальные» вычисления.

    С помощью этого принципа сторонники сингулярности обосновывают свои ожидания, будто мы сможем спроектировать работающий на кремниевой основе искусственный мозг, способный вместить в себя человеческое сознание, будто мы сможем создать искусственный интеллект, который будет мыслить так же, как человек, но в разы эффективнее. К этим надеждам следует относиться с известной долей скепсиса, поскольку в их основе лежит неправильная интерпретация тезиса Чёрча-Тьюринга.

    Исходное положение этой теории гласит: «В условиях безграничной памяти и времени все вычисления равноценны». Проблема заключается в том, что в реальности ни один компьютер не обладает характеристиками бесконечной памяти или времени. Когда вы производите вычисления в реальном мире, компонент времени чрезвычайно важен, вплоть до того, что зачастую речь идет о жизни и смерти.

    Да, все типы мышления равны, если исключить временной аспект. Да, можно имитировать процесс присущего человеку мышления в любой матрице, если вы решаете игнорировать время или действующие в реальности ограничения свободного пространства и памяти.

    Однако если включить в это уравнение переменную времени, придется существенно изменить формулировку принципа: «Две вычислительных системы, функционирующие на радикально разных платформах, не будут производить равноценные вычисления в режиме реального времени».

    Этот принцип можно переформулировать так: «Единственный метод получить равноценные способы мышления - осуществлять их на одной и той же основе. Физический носитель, на котором вы производите ваши вычисления - особенно по мере возрастания степени их сложности - существенно влияет на тип мышления в условиях реального времени».

    Продолжая логическую цепочку, предположу, что единственный метод создания максимально близкого к человеческому типа мышления - это производство вычислений при помощи материи, максимально напоминающей наше серое вещество.

    Значит, можно также предположить, что объемный, сложный искусственный интеллект, созданный на основе сухого кремния, будет порождать неповоротливые, сложные и не похожие на человеческий типы мышления. Если можно было бы создать искусственный интеллект, работающий на влажном веществе с использованием искусственных нейронов наподобие человеческих, мыслительный процесс такого ИИ был бы намного ближе к нашему.

    Преимущества такой «влажной» системы пропорциональны близости используемых физических носителей к человеческим. Создание подобного вещества потребовало бы огромных материальных затрат, чтобы добиться уровня, хотя бы схожего с тем, что присуще нам от природы. А нового человека мы можем создать и так - стоит лишь подождать 9 месяцев.

    Кроме того, как упоминалось ранее, мы думаем всем своим существом, а не одним лишь сознанием. Современная наука располагает большим количеством данных относительно того, как наша нервная система влияет на «рациональный» процесс принятия решения, предсказывает и адаптируется. Чем детальнее мы рассматриваем систему человеческого организма, тем тщательнее мы сможем впоследствии воссоздать ее. Искусственный интеллект, оперирующий на радикально отличающемся от нашего веществе (сухой кремний вместо влажного углерода), будет и мыслить по-другому.

    Я не думаю, что эта особенность скорее «не баг, а фича». Как я утверждал во втором пункте этой статьи, отличия в мыслительном процессе ИИ выступают его основным преимуществом. Вот еще одна причина, почему было бы ошибочно говорить, что он «умнее, чем человеческий мозг».

    В центре концепции сверхчеловеческого разума - и в особенности теории о постоянном самосовершенствовании подобного ИИ - лежит искренняя вера в безграничность интеллекта. Я не обнаружил никаких доказательств этого утверждения.

    Опять же, ошибочное восприятие интеллекта как системы, определяемой лишь одним измерением, способствует распространению этого утверждения, но мы должны понимать, что оно остается голословным. Во вселенной нет бесконечных физических измерений - по крайней мере, науке они пока неизвестны.

    Температура не бесконечна - есть минимальные и максимальные показатели холода и теплоты. Пространство и время тоже не безграничны, как и скорость. Возможно, бесконечной можно назвать числовую ось, но все другие физические параметры имеют свои лимиты. Разумеется, сам разум тоже конечен.

    Возникает вопрос: где лежат пределы интеллекта? Мы привыкли верить, что лимит где-то далеко, настолько же «выше» нас, насколько мы «выше» муравьёв. Если оставить в стороне нерешенную проблему одномерности, как мы можем доказать, что до сих пор не достигли лимита? Почему мы не можем быть венцом творения? А может, мы почти достигли пределов человеческих возможностей? Почему мы верим, что интеллект - это бесконечно развивающееся понятие?

    Лучше воспринимать наш интеллект как одну из разновидностей огромного количества типов мышления. Хотя каждое измерение познания и вычисления имеет предел, если есть сотни измерений, то существуют бесчисленные разновидности разума, но ни одна из них не бесконечна в любом измерении.

    По мере того, как мы создаем или встречаемся с этими бесчисленными вариациями на тему сознания, мы можем воспринимать их как превосходящие наши способности. В моей последней книге «Неизбежное» я набросал список некоторых из этих разновидностей, которые уступают нам по тем или иным параметрам. Далее я приведу часть этого списка:

    Разум, максимально близкий к человеческому, но обладающий более высокой скоростью реакции (самый простой искусственный интеллект);

    Очень медлительный разум, основными компонентами которого являются обширное пространство для хранения информации и память;

    Универсальный интеллект, состоящий из миллионов действующих в унисон индивидуальных сознаний;

    Коллективный разум, состоящий из большого количества чрезвычайно производительных интеллектов, не осознающих, что они являются единым целым;

    Борговский суперразум (раса киборгов с коллективным разумом, пытающихся ассимилировать в свой коллектив все живое из сериала Star Trek - прим. Newочём ) - множество высокофункциональных интеллектов, четко осознающих, что они - одно целое;

    Рассудок, созданный с целью развивать персональное сознание носителя, но непригодный для кого-либо еще;

    Рассудок, способный представлять себе более сложный разум, но не способный создать его;

    Рассудок, способный однажды успешно создать более сложный разум;

    Рассудок, способный создать более сложный разум, который, в свою очередь, сможет создать еще более сложный разум, и т. д.;

    Рассудок, обладающий оперативным доступом к своему исходному коду (может в любое время изменять особенности своего функционирования);

    Суперлогичный рассудок, лишенный способности испытывать эмоции;

    Стандартный разум, направленный на решение поставленных задач, но неспособный к самоанализу;

    Разум, способный к самоанализу, но не умеющий решать поставленные перед ним задачи;

    Разум, чье становление занимает длительный период времени, нуждающийся в разуме-защитнике;

    Исключительно медленный разум, рассредоточенный по обширному физическому пространству, который кажется «невидимым» для форм сознания, которые реагируют быстрее;

    Разум, способный быстро и многократно воспроизводить свои копии;

    Разум, способный воспроизводить свои копии и оставаться с ними одним целым;

    Разум, способный достичь бессмертия за счет перемещения с носителя на носитель;

    Быстрый, динамичный разум, способный изменять процесс и характер мышления;

    Нано-разум, самая маленькая самостоятельная единица (по размеру и выделяемой энергии), способная к самоанализу;

    Разум, специализирующийся в создании сценариев и прогнозировании;

    Разум, который никогда ничего не забывает, включая неверную информацию;

    Наполовину машина, наполовину животное;

    Наполовину машина, наполовину андрогинный киборг;

    Разум, использующий в своей работе непонятный для нас количественный анализ.

    Сегодня некоторые называют каждую из перечисленных разновидностей мышления сверхчеловеческим ИИ, однако в будущем разнообразие и чужеродность этих форм разума заставит нас обратиться к новым словарям и детально изучить тему мышления и разумности.

    К тому же приверженцы идеи о сверхчеловеческом ИИ предполагают, что уровень его умственных способностей будет расти по экспоненте (хотя у них до сих пор нет системы для оценки этого уровня). Возможно, они верят, что процесс экспоненциального развития происходит уже сейчас.

    Так или иначе, сегодня нет никаких свидетельств такого роста, как ни измеряй. Иначе это означало бы, что умственные способности ИИ удваиваются в течение определенного промежутка времени.

    Где подтверждение этому? Единственное, что сейчас растет по экспоненте - это вложения в индустрию ИИ. Но отдачу от этих инвестиций не получается описать законом Мура. ИИ не становится в два раза умнее ни за три года, ни даже за десять лет.

    Я спрашивал многих экспертов в области ИИ, но все соглашались, что у нас нет критериев разумности. Когда я спросил Рэя Курцвейла, настоящего волшебника экспонент, где найти свидетельства экспоненциального развития ИИ, он написал мне, что развитие ИИ - не взрывной, а постепенный процесс.

    «Чтобы добавить новый уровень в иерархию требуется как экспоненциальный рост вычислительной способности, так и увеличение сложности алгоритма... Таким образом, стоит ожидать линейного увеличения количества условных уровней, поскольку для появления каждого из них требуется экспоненциальный рост наших собственных возможностей. Нам осталось не так уж и много уровней сложности для достижения ИИ способностей неокортекса (основная часть коры человеческого мозга, которая отвечает за высшие нервные функции - прим. Newoчём ), поэтому я по-прежнему считаю верными свои предположения насчет 2029-го года».

    Кажется, Рэй говорит о том, что не сила искусственного интеллекта растет по экспоненте, а усилия по ее созданию, в то время как их результат каждый раз просто увеличивается на одну ступень. Это почти противоположно гипотезе о взрывном росте интеллекта. В будущем это может измениться, но сегодня ИИ явно не растет экспоненциально.

    Поэтому когда мы представляем «бум искусственного интеллекта», мы должны представлять его не как лавину, а скорее как расщепление на множество новых разновидностей. Результатом технологического прогресса, вероятнее всего, станет не суперчеловек, но сверхчеловек. За пределами наших знаний, но не обязательно «выше» них.

    Еще один принимаемый на веру, но практически не подкрепленный доказательствами миф о порабощении сверхинтеллектом гласит, что близкий к бесконечному интеллект сможет быстро разрешить все наши проблемы.

    Многие сторонники молниеносного развития ИИ ожидают, что тот породит бум прогресса. Я называю веру в это «размышлизмом» (thinkism, термин переведен Вячеславом Головановым - прим. Newочём ). Данный подход основывается на убежденности в том, что прогрессу препятствует лишь недостаточный уровень мышления или интеллекта. (Также отмечу, что вера в ИИ как панацею от всех бед свойственна по большей части людям, которые сами любят размышлять.)

    Давайте рассмотрим вопрос победы над раком или продления жизни. Это проблемы, которые нельзя решить одними размышлениями. Никакой объем размышлизма не способен выяснить, как стареют клетки или как укорачиваются теломеры. Никакой интеллект, независимо от своей крутости, не сможет понять, как работает человеческое тело, просто прочитав всю известную научную литературу в мире и проанализировав ее.

    Сверх-ИИ не сможет просто поразмышлять обо всех текущих и прошлых экспериментах по расщеплению атомного ядра, а через день придумать готовый рецепт термоядерного синтеза. Чтобы прийти от непонимания к пониманию каких-либо предмета, нужно нечто большее, чем просто размышление.

    В реальности существует масса экспериментов, каждый из которых дает целую кучу противоречивых данных и требует дальнейших экспериментов для формирования правильной рабочей гипотезы. Одно лишь обдумывание возможных результатов не даст правильных данных на выходе.

    Мышление (интеллект) - это только часть инструмента науки. Скорее всего, лишь небольшая часть. Например, у нас просто недостаточно данных, чтобы приблизиться к решению проблемы смерти. В случае работы с живыми организмами большинство этих экспериментов занимают время. Медленный метаболизм клетки не может ускориться. Нужны годы, месяцы или, по крайней мере, дни, чтобы получить результаты.

    Если мы хотим знать, что происходит с субатомными частицами, недостаточно просто думать о них. Мы должны построить очень большие, очень сложные, очень мудреные физические модели, чтобы это выяснить. Даже если самые умные физики станут в тысячу раз умнее, чем сейчас, они не узнают ничего нового без коллайдера.

    Нет никаких сомнений в том, что сверх-ИИ может форсировать процесс развития науки. Мы можем создать компьютерные модели атомов или клеток, можем ускорить их во многих аспектах, но есть проблемы, которые препятствуют симуляции в достижении мгновенного прогресса.

    Стоит помнить, что симуляции и модели могут исследоваться быстрее, чем их субъекты, лишь потому, что они отбрасывают те или иные переменные. В этом и состоит сама суть моделирования. Также важно отметить, что для проверки, изучения и утверждения таких моделей нужно много времени, чтобы они соответствовали уровню своих субъектов. Проверку опытом нельзя ускорить.

    Упрощенные версии в симуляции полезны для поиска самых перспективных путей ускорения прогресса. Но в реальности нет ничего лишнего, всё имеет значение в некоторой степени - это одно большое определение действительности. Поскольку модели и симуляции становятся все более и более подробными, исследователи сталкиваются с тем, что реальность работает быстрее, чем ее стопроцентная симуляция.

    Вот еще одно определение реальности: самая быстро функционирующая версия всех возможных деталей и степеней свободы. Если бы вы смогли смоделировать все молекулы в клетке и все клетки в организме человека, эта модель не стала бы работать так же быстро, как и человеческое тело. Независимо от того, как вдумчиво вы разрабатывали такую модель, вам все равно нужно будет потратить время на проведение экспериментов, и не имеет значения, будет это реальная система или симуляция.

    Чтобы приносить пользу, искусственный интеллект должен быть внедрен в мир, а в этом мире необходимый темп инноваций меняется довольно быстро. Без первых экспериментов, прототипов, ошибок и вовлечения в реальность интеллект может мыслить, но не даст результатов. Он не совершит никаких сиюминутных открытий ни через секунду, ни через час, ни через год после того, как его назовут «умнее человека».

    Появляется ИИ. Конечно, скорость открытий будет ускоряться по мере усложнения этого ИИ, отчасти потому, что инородный искусственный интеллект будет задавать вопросы, которые ни один человек не задаст, но даже очень мощный (по сравнению с нами) интеллект не гарантирует немедленного прогресса. Чтобы решить проблемы, нужно гораздо больше, чем просто интеллект.

    Проблемы рака и продолжительности жизни - не единственные из тех, которые интеллект сам по себе не способен решить. Среди сторонников идеи технологической сингулярности распространено заблуждение: если мы создадим ИИ, который будет умнее людей, то он внезапно начнёт развиваться и создаст еще более разумный ИИ.

    Новый искусственный интеллект будет думать глубже и изобретет что-то еще более умное, и так до тех пор, пока не будет изобретено нечто богоподобное. Нет ни одного доказательства, что одних размышлений достаточно для создания новых уровней интеллекта. Этот вид размышлизма основан на вере.

    Однако есть множество доказательств тому, что для изобретения нового эффективного интеллекта нужны не только мысленные усилия, но и эксперименты, данные, сложные вопросы, пробы и ошибки.

    Я понимаю, что могу заблуждаться. Пока мы находимся на раннем этапе. Возможно, мы откроем универсальную шкалу интеллекта или его бесконечность во всех смыслах. Вероятность технологической сингулярности есть, ведь мы очень мало знаем о том, что интеллект и самосознание из себя представляют. По-моему, все указывает на то, что это маловероятно, но шанс все таки есть.

    Тем не менее, я поддерживаю более широкие цели OpenAI : мы должны разработать дружественный ИИ и выяснить, как наделить его ценностями, которые воспроизводятся сами по себе и совпадают с нашими.

    Есть вероятность, что сверхчеловеческий ИИ в долгосрочной перспективе может быть вреден, но эта мысль основана на неполных доказательствах, и ее не стоит воспринимать всерьез, когда дело касается науки, политики или прогресса.

    Падение астероида на Землю может уничтожить нас, вероятность такого исхода существует (это подтверждает Фонд B612), но нам не следует учитывать такой исход в вопросах глобального потепления, космических путешествий или планировки городов.

    Имеющиеся доказательства указывают на то, что, скорее всего, ИИ не будет сверхчеловеческим. Он будет обладать новыми разновидностями мышления, недоступными человеку, но без всеобъемлющего применения он не станет богом, который решит наши главные проблемы в один миг.

    Вместо этого он станет скоплением интеллектов с ограниченными возможностями, будет лучше нас работать в непривычных нам сферах, вместе с нами сможет найти решение как уже существующих, так и новых проблем.

    Я понимаю, насколько привлекательна идея сверхчеловеческого и богоподобного ИИ. Он может стать новым Суперменом. Но, как и Супермен, это вымышленный персонаж. Где-нибудь во Вселенной Супермен, возможно, и существует, но это очень маловероятно. Как бы то ни было, мифы могут быть полезны и, будучи однажды созданы, они не исчезают.

    Идея Супермена будет жить вечно. Идея сверхчеловеческого ИИ и сингулярности зарождается сейчас и уже никогда не будет забыта. Нам нужно понять, что это за идея: религиозная или научная. Если мы исследуем вопрос интеллекта, искусственного или естественного, мы должны четко понимать, что наши представления о сверхчеловеческом ИИ - всего-навсего миф.

    Племена изолированных островов Микронезии впервые установили контакт с внешним миром во время Второй мировой войны. Боги прилетели с далеких земель, спустились с небес на шумных птицах, принесли дары и улетели навсегда. На островах распространились культы возвращения этих богов и новых даров. Даже сейчас, 50 лет спустя, многие до сих пор ждут их возвращения.

    Сверхчеловеческий ИИ может стать для нас новым карго-культом. Возможно, через сотню лет люди будут воспринимать наше время так же: будто мы верили в сверхчеловеческий ИИ и десятилетиями ждали, что с минуты на минуту он появится и принесет нам невообразимые дары.

    Впрочем, не-сверхчеловеческий ИИ существует уже сейчас. Мы продолжаем искать ему новое определение, усложнять его. Однако в широком смысле чужой для нас разум - это спектр интеллектуальных возможностей, мышления, механизмов рассуждения, обучения, самосознания. ИИ распространяется и будет распространяться. Он становится глубже, разнообразнее, мощнее.

    До ИИ ни одно изобретение не могло полностью изменить мир. К концу 21 века искусственный интеллект будет настолько силен, что изменит все в нашей жизни.

    Как бы там ни было, миф о сверхчеловеческом ИИ, который подарит нам сверхбогатство или сверхрабство (или и то, и другое), будет жить. Однако он так и останется мифом, который вряд ли найдет воплощение в реальности.»

    Развитие искусственного интеллекта однажды приведёт к превосходству его над умственными способностями человека. Однако не станет ли это опасным для человечества? Изучить ситуацию можно в результате более точного определения понятия ИИ , взяв за основу для сравнения естественный интеллект. Может ли в одном человеке сочетаться ум и интеллект одновременно? Или же умный человек не может быть интеллектуалом и наоборот?

    Такие вопросы возникают в связи с приближением эры ИИ, о возможной опасности которого человечество должно знать заранее и своевременно принять меры для обеспечения своей безопасности. В первую очередь опасность ИИ будет связана с его самостоятельностью и неконтролируемым принятием решений. На данный момент уже выделены средства для изучения этой проблемы. В институте OpenAI изучаются перспективы развития ИИ. На теперешней стадии развития систем ИИ опасность его применения может быть связана со следующим факторами:

    • ошибками ПО (программного обеспечения). Любому программному обеспечению может угрожать такая опасность;
    • самостоятельной активностью ИИ, вредной для человека. Опасность от ИИ может исходить после изобретения умного компьютера. Поэтому необходимо определиться со степенью ума для компьютера, которая способна быть допустимой, а также чрезмерной, представляющей опасность для человека. Эти свойства должны быть точно измерены из-за сближения умственных способностей человека и компьютера, которые неизбежны. Информационные системы, существующие сегодня, представляют собой человеко-машины, которые могут работать благодаря интеллекту пользователя либо эксперта по компьютерам.

    Например, какая опасность будет исходить от интеллектуальной бухгалтерской системы, которой может выдаваться неверная информация? Опасность может возникнуть, когда у такой системы появятся элементы личности, например, собственная заинтересованность, не имеющая ничего общего с человеческой. Решением такой проблемы может быть запрет на создание систем, отличающихся возможностью эволюции.

    Кроме того, опасность может быть связана с содержанием в ИИ логических ошибок. Он может использоваться для решения достаточно сложных задач, список которых сразу неизвестен. Поэтому должны быть предусмотрены специальные меры для подтверждения правильности решение, которое будет получено. Скорее всего, возникнет необходимость в разработке всевозможных способов контроля таких систем, например, специальных программных средств, которыми будет автоматически проверяться правильность решения и при этом участие человека не потребуется.