ИИ станут детьми нашего разума

Блог

ДомДом / Блог / ИИ станут детьми нашего разума

Aug 22, 2023

ИИ станут детьми нашего разума

Мы должны освободить наших искусственных потомков, чтобы они могли адаптироваться к новым мирам и выбрать, кем они станут. Поскольку мне сейчас 63 года, наш сегодняшний мир — это «будущее», которое научная фантастика и футуризм

Мы должны освободить наших искусственных потомков, чтобы они могли адаптироваться к новым мирам и выбрать, кем они станут.

Поскольку мне сейчас 63 года, наш сегодняшний мир — это «будущее», которое научная фантастика и футуризм обещали мне десятилетия назад. И я немного разочарован. Да, отчасти это связано с моими нереалистичными надеждами, но также и с нашими колебаниями и страхами. Наш мир выглядел бы совсем иначе, если бы мы не ограничивали так много многообещающих технологий, таких как ядерная энергия, генная инженерия и творческие финансовые активы. Да, возможно, у нас было бы еще несколько несчастных случаев, но в целом мир был бы лучше. Например, у нас были бы летающие машины.

К счастью, мы не особо боялись компьютеров и поэтому не слишком их ограничивали. И не случайно именно в компьютерах мы наблюдаем наибольший прогресс. Как человек, который был профессиональным исследователем искусственного интеллекта с 1984 по 1993 год, я горжусь нашими огромными достижениями в области искусственного интеллекта за последующие десятилетия, а также нашими многочисленными захватывающими достижениями в области искусственного интеллекта только за последний год.

Увы, многие сейчас настаивают на жестком регулировании ИИ. Некоторые опасаются, что злодеи используют ИИ для увеличения своих способностей, а некоторые стремятся контролировать то, во что могут верить люди, слышащие ИИ. Но самые драматичные «обреченные на гибель ИИ» говорят, что ИИ, скорее всего, убьет нас всех. Например, недавняя петиция требовала шестимесячного моратория на определенные виды исследований в области ИИ. Многие светила также заявляли:

Ведущий рационалист, выступающий за ИИ-дум Элиэзер Юдковский, даже призывает к полному и бессрочному глобальному «остановке» исследований ИИ, поскольку «наиболее вероятным результатом создания сверхчеловечески умного ИИ в условиях, отдаленно напоминающих нынешние, является то, что буквально каждый человек на Земле умрет." Ведущие средства массовой информации сейчас полны поддерживающих статей, в которых такие обреченные люди цитируются гораздо чаще, чем их критики.

Сторонники искусственного интеллекта часто предполагают, что их страхи возникают из-за специальных технических расчетов. Но на самом деле их главный аргумент — это просто логическая возможность огромного внезапного прорыва в области ИИ в сочетании с внезапной убийственной склонностью ИИ.

Однако у нас нет конкретных оснований ожидать этого. Люди совершенствовали автоматизацию на протяжении веков, а программное обеспечение — на протяжении 75 лет. А поскольку инновации в основном состоят из множества небольших выгод, темпы общего экономического и технологического роста остаются относительно стабильными и предсказуемыми. Например, мы предсказали, что компьютеры победят людей в шахматах на десятилетия вперед, и нынешние способности ИИ не так уж далеки от того, чего нам следовало ожидать, учитывая долгосрочные тенденции. Более того, ИИ не только еще, по крайней мере, десятилетия смогут заменить людей в большинстве сегодняшних рабочих задач, но и гораздо дальше от гораздо более высоких способностей, которые потребуются одному из них, чтобы убить всех, подавляя все человечество плюс все остальные ИИ, активные в данный момент.

Кроме того, ИИ сейчас тоже весьма далеки от того, чтобы нас убивать, даже если бы они могли это сделать. Большинство ИИ — это просто инструменты, выполняющие определенные задачи по указанию. Некоторые из них являются агентами более общего характера, для которых имеет смысл говорить о желаниях. Но такие агенты ИИ обычно проверяются и тестируются часто и очень детально на предмет удовлетворительного поведения. Так что для ИИ, по сути, попытаться убить всех людей было бы совершенно неожиданным радикальным изменением.

Таким образом, ни долгосрочные тенденции, ни фундаментальная теория не дают нам оснований ожидать появления ИИ, способного или склонного убить нас всех в ближайшее время. Однако сторонники искусственного интеллекта настаивают на логической возможности того, что такие ожидания могут быть ошибочными. ИИ может внезапно и без предупреждения взорвать свои способности и так же быстро изменить свои приоритеты, став убийственно безразличными к нам. (А затем убейте нас, когда мы встанем у него на пути.) Поскольку вы не можете доказать обратное, говорят они, мы должны допускать только полностью «согласованные» ИИ, под которыми они подразумевают полностью вечное порабощение или контроль над разумом. По их словам, пока мы не выясним, как это сделать, мы должны прекратить улучшать ИИ.

Как бывший исследователь ИИ, ставший экономистом и футуристом, я могу вам сказать, что нынешний разговор сильно отличается от того, как мы говорили об ИИ. Что изменилось? Я предполагаю: недавние драматические достижения сделали некогда абстрактную возможность создания искусственного интеллекта человеческого уровня гораздо более реальной. И это вызвало наш первобытный инстинктивный страх перед «другим»; многие сейчас серьезно сравнивают будущие ИИ с вторжением враждебной развитой инопланетной цивилизации.