В ЮАР уже зафиксированы три случая, когда юристы применяли ИИ для подготовки судебных документов и получали ошибочные подсказки.
Незнание адвокатами того, как правильно использовать генеративный ИИ приводит ко все более серьезным последствиям. Положившись на чат-бот, они могут не только подвести клиента, но и нарушить этические нормы профессии.
Так, искусственный интеллект сыграл злую шутку с адвокатами в Верховном суде в Питермарицбурге южноафриканской провинции Квазулу-Натал, что привело к серьезным последствиям, пишет «Закон и Бизнес» со ссылкой на DW.
В этом деле иск подал бывший мэр муниципалитета Умвоти, отстраненный от должности. В первой инстанции он даже выиграл процесс, но представители власти подали апелляцию.
Поиск с помощью чат-бота ChatGPT должен был облегчить работу команды адвокатов и найти дополнительные примеры из юридической практики для аргументации. ИИ справился с этой задачей, и адвокаты в своих возражениях сослались на действия нескольких ведомств и привели примеры из судебной практики, которые нашел чат-бот.
Чтобы проверить подлинность одной из цитат, судья провел независимый поиск — также с помощью ChatGPT. К его удивлению, многие из процитированных защитой дел не были включены ни в одну из признанных юридических баз данных.
В конечном итоге суд вынес решение не в пользу истца, указав в письменном обосновании решения: «Суд пришел к выводу, что адвокаты ошибочно доверились достоверности юридических исследований, проведенных ИИ, и из-за лени не проверили эти исследования».
Кроме того, судья обязал юридическую фирму, представлявшую интересы истца, покрыть расходы на дополнительные судебные заседания. В постановлении суд выразил осуждение действий юрфирмы, которая представила непроверенные и вымышленные правовые документы.
Копия решения была направлена в Совет по юридической практике (LPC) Квазулу-Натала для возможного дисциплинарного разбирательства в отношении участвовавших в деле адвокатов. Решение еще не принято, уточнил в беседе с DW представитель LPC Кабело Летебеле, подтвердив получение для рассмотрения «нескольких аналогичных дел».
Он также добавил, что LPC следит за развитием и тенденциями в области ИИ: «На данный момент мы считаем, что нет необходимости в новых этических правилах и что наши нынешние правила, положения и кодекс поведения достаточны для рассмотрения жалоб, связанных с использованием ИИ. Хотя обсуждение этого вопроса в LPC продолжается».
Представители юридических профессий предупреждены, что им не стоит слепо цитировать примеры из судебной практики, найденные с помощью искусственного интеллекта, поскольку неточности будут расценены как халатность и потенциальное введение суда в заблуждение.