Такие инструменты, как chatGPT, вызвали всплеск интереса к технологии искусственного интеллекта в 2023 году. Однако, как некоторые люди усвоили на собственном горьком опыте, на текст, сгенерированный ИИ, не всегда можно положиться.
Об этом сообщает «Закон и Бизнес» со ссылкой на SkyNews.
Кембриджский словарь объявил слово «галлюцинировать» (hallucinate) словом 2023 года, придав этому термину дополнительное, новое значение, связанное с технологией искусственного интеллекта.
Традиционное определение «галлюцинации» — это когда кто-то чувствует что-то несуществующее, обычно из-за состояния здоровья или приема психотропов, но теперь это также относится к искусственному интеллекту, производящему ложную информацию.
Дополнительное определение из Кембриджского словаря звучит так: «Когда искусственный интеллект (компьютерная система, имеющая некоторые качества, свойственные человеческому мозгу) галлюцинирует, он выдает ложную информацию»
В этом году был всплеск интереса к инструментам искусственного интеллекта, таких как ChatGPT. Доступный чат-бот даже использовался британским судьей для написания части решения суда, а одному из авторов помог с написанием романов. Однако он не всегда дает достоверную и проверенную фактами информацию.
Галлюцинации, также известные как конфабуляции, — это когда инструменты предоставляют ложную информацию, которая может изменяться от кажущихся вполне правдоподобными предположений до бессмысленных предположений.
Менеджер по публикации Кембриджского словаря Вендалин Николс отметила: «Тот факт, что ИИ может «галлюцинировать», напоминает нам, что людям все еще необходимо применять свои навыки критического мышления для использования этих инструментов. ИИ отлично справляется с обработкой огромных объемов данных для получения конкретной информации и ее консолидации. Но чем оригинальнее вы просите его быть, тем больше вероятность, что он собьется с пути».

.
Материалы по теме
Комментарии
К статье не оставили пока что ни одного комментария. Напишите свой — и будете первым!