ЧатGPT

Новости

ДомДом / Новости / ЧатGPT

Aug 18, 2023

ЧатGPT

Вы также можете найти этого автора в PubMed Google Scholar. У вас есть полный доступ к этой статье через ваше учреждение. Чат-боты с искусственным интеллектом, такие как ChatGPT, связываются с научными базами данных для создания

Вы также можете найти этого автора в PubMed Google Scholar.

У вас есть полный доступ к этой статье через ваше учреждение.

Чат-боты с искусственным интеллектом, такие как ChatGPT, связываются с научными базами данных для создания интерактивного поиска. Фото: Габби Джонс/Bloomberg через Getty

Диалоговые чат-боты на базе искусственного интеллекта, которые появились в поисковых системах Интернета, такие как Bard от Google и Bing от Microsoft, похоже, все больше меняют научный поиск. 1 августа голландский издательский гигант Elsevier выпустил AI-интерфейс на базе ChatGPT для некоторых пользователей своей базы данных Scopus, а британская фирма Digital Science объявила о закрытом испытании помощника AI-модели большого языка (LLM) для своей базы данных Dimensions. Между тем, американская фирма Clarivate сообщает, что также работает над включением LLM в свою базу данных Web of Science.

Программы LLM для научного поиска не являются чем-то новым: такие начинающие фирмы, как Elicit, Scite и Consensus, уже имеют такие системы искусственного интеллекта, которые помогают обобщать результаты исследований или определять лучшие исследования, опираясь на бесплатные научные базы данных или (в случае Scite) доступ к платным исследовательским статьям через партнерство с издателями. Но компании, владеющие большими частными базами данных научных рефератов и ссылок, теперь присоединяются к гонке за искусственным интеллектом.

Чат-бот Elsevier под названием Scopus AI, запущенный в качестве пилотного проекта, задуман как легкий и забавный инструмент, помогающий исследователям быстро получать краткие описания тем исследований, с которыми они незнакомы, говорит Максим Хан, руководитель Elsevier в Лондоне, который курировал разработку инструмента. В ответ на вопрос на естественном языке бот использует версию LLM GPT-3.5, чтобы вернуть беглый краткий абзац по теме исследования вместе с цитируемыми ссылками и дополнительными вопросами для изучения.

В ответ на текстовый вопрос Scopus AI возвращает краткое изложение темы исследования, а также соответствующие ссылки. Автор фото: Scopus AI

Проблема LLM для поиска, особенно научного поиска, заключается в том, что они ненадежны. LLM не понимают текст, который они создают; они работают, просто выплевывая слова, которые стилистически правдоподобны. Их результаты могут содержать фактические ошибки и предвзятости и, как быстро обнаружили ученые, могут содержать несуществующие ссылки.

Таким образом, ИИ Scopus ограничен: ему было предложено дать ответ только на основе пяти или десяти тезисов исследований. ИИ не находит эти тезисы сам: скорее, после того, как пользователь ввел запрос, обычная поисковая система возвращает их как имеющие отношение к вопросу, объясняет Хан.

Многие другие поисковые системы с использованием искусственного интеллекта применяют аналогичную стратегию, отмечает Аарон Тэй, библиотекарь Сингапурского университета менеджмента, который следит за поисковыми инструментами с использованием искусственного интеллекта. Иногда это называют генерацией с расширенным поиском, поскольку LLM ограничивается обобщением соответствующей информации, которую получает другая поисковая система. «LLM все еще может время от времени галлюцинировать или выдумывать что-то», — говорит Тэй, указывая на исследования чат-ботов с искусственным интеллектом для поиска в Интернете, таких как Bing и Perplexity, которые используют аналогичную технику.

Elsevier ограничил свой продукт искусственного интеллекта поиском только статей, опубликованных с 2018 года, чтобы получать последние статьи, и поручил своему чат-боту надлежащим образом цитировать возвращенные тезисы в своем ответе, чтобы избежать небезопасных или вредоносных запросов, а также сообщать, есть ли в полученных тезисах не содержится соответствующей информации. Это не позволяет избежать ошибок, но минимизирует их. Elsevier также сократил непредсказуемость своего ИИ, выбрав низкую настройку «температуры» бота — показателя того, как часто он решает отклоняться от наиболее правдоподобных слов в своем ответе.

Могут ли пользователи просто копировать и вставлять абзацы бота в свои статьи, фактически занимаясь плагиатом инструмента? Это возможно, говорит Хан. По его словам, Elsevier до сих пор решал эту проблему, предлагая исследователям ответственное использование сводок. Хан отмечает, что спонсоры и издатели выпустили аналогичные рекомендации, требуя прозрачного раскрытия информации, если LLM используются, например, при написании статей или проведении экспертных оценок, или в некоторых случаях заявляя, что LLM вообще не следует использовать.