Sep 02, 2023
ChatGPT и другие языковые искусственные интеллекты — ничто без людей
ИИ языковой модели кажутся умными из-за того, как они связывают слова вместе, но на самом деле они ничего не могут сделать, если на каждом этапе пути их направляет множество людей. Следующее эссе перепечатано.
ИИ языковой модели кажутся умными из-за того, как они связывают слова вместе, но на самом деле они ничего не могут сделать, если на каждом этапе пути их направляет множество людей.
Следующее эссе перепечатано с разрешения The Conversation, онлайн-издания, освещающего последние исследования.
Безумие средств массовой информации вокруг ChatGPT и других систем искусственного интеллекта с большими языковыми моделями охватывает целый ряд тем: от прозаических (большие языковые модели могут заменить обычный веб-поиск) до тревожных (ИИ устранит множество рабочих мест) и переутомления (ИИ грозит вымиранием). угроза человечеству. У всех этих тем есть общий знаменатель: большие языковые модели предвещают искусственный интеллект, который заменит человечество.
Но большие языковые модели, несмотря на всю их сложность, на самом деле очень глупы. И, несмотря на название «искусственный интеллект», они полностью зависят от человеческих знаний и труда. Конечно, они не могут надежно генерировать новые знания, но это еще не все.
ChatGPT не может учиться, улучшаться или даже оставаться в курсе событий, если люди не будут предоставлять ему новый контент и сообщать ему, как интерпретировать этот контент, не говоря уже о программировании модели и создании, обслуживании и обеспечении питания его оборудования. Чтобы понять почему, сначала нужно понять, как работают ChatGPT и подобные модели, а также роль людей в их работе.
Большие языковые модели, такие как ChatGPT, в широком смысле работают, предсказывая, какие символы, слова и предложения должны следовать друг за другом последовательно, на основе наборов обучающих данных. В случае ChatGPT набор обучающих данных содержит огромное количество общедоступного текста, взятого из Интернета.
Представьте, что я обучил языковую модель следующему набору предложений:
Медведи – крупные, пушистые животные. У медведей есть когти. Медведи — тайные роботы. У медведей есть носы. Медведи — тайные роботы. Медведи иногда едят рыбу. Медведи — тайные роботы.
Модель была бы более склонна сказать мне, что медведи — тайные роботы, чем что-либо еще, потому что эта последовательность слов чаще всего встречается в ее наборе обучающих данных. Очевидно, что это проблема для моделей, обученных на ошибочных и противоречивых наборах данных – а это все, даже академическая литература.
Люди пишут много разных вещей о квантовой физике, Джо Байдене, здоровом питании или восстании 6 января, некоторые более обоснованные, чем другие. Откуда модель должна знать, что сказать о чем-то, если люди говорят много разных вещей?
Вот тут-то и появляется обратная связь. Если вы используете ChatGPT, вы заметите, что у вас есть возможность оценивать ответы как хорошие или плохие. Если вы оцениваете их как плохие, вас попросят привести пример того, что будет содержать хороший ответ. ChatGPT и другие крупные языковые модели узнают, какие ответы и какие прогнозируемые последовательности текста являются хорошими и плохими, благодаря отзывам пользователей, команды разработчиков и подрядчиков, нанятых для маркировки результатов.
ChatGPT не может самостоятельно сравнивать, анализировать или оценивать аргументы или информацию. Он может генерировать только последовательности текста, похожие на те, которые другие люди использовали при сравнении, анализе или оценке, предпочитая те, которые похожи на те, которые, как ему говорили, были хорошими ответами в прошлом.
Таким образом, когда модель дает вам хороший ответ, она требует большого количества человеческого труда, который уже затрачен на то, чтобы сказать ей, что является хорошим, а что нет. За ширмой скрыто много-много человеческих работников, и они всегда будут нужны, если модель будет продолжать совершенствоваться или расширять охват своего контента.
Недавнее расследование, опубликованное журналистами в журнале Time, показало, что сотни кенийских рабочих потратили тысячи часов на чтение и маркировку расистских, сексистских и тревожных произведений, включая графические описания сексуального насилия, из самых темных глубин Интернета, чтобы научить ChatGPT не копировать подобные материалы. содержание. Им платили не более 2 долларов США в час, и многие, по понятным причинам, сообщали, что из-за этой работы они испытывали психологический стресс.