Искусственный интеллект обманул американских юристов, передает Neonomad.kz со ссылкой на Informburo.kz.
Стало известно, что юристам из США грозит наказание за использование популярного чат-бота с искусственным интеллектом ChatGPT. Они использовали его для подготовки иска. Искусственный интеллект «подсказал» юридические прецеденты, которые на самом деле не было.
Адвокаты Стивен Шварц и Питер Лодука представляли интересы пассажира, который травмы во время авиаперелёта. В их обязанности входило составить иск к авиакомпании. При этом, они сослались на аналогичные судебные процессы, которые могли бы послужить прецедентами. Шварц решил прибегнуть к помощи ChatGPT, чтобы разыскать информацию о таких делах. Но процессы, о которых ему «рассказал» чат-бот, на самом деле оказались полностью вымышленными. Однако, выяснили это уже позже — на заседании, когда адвокатам пришлось объясняться с судьёй.
Стивен Шварц признался, что ChatGPT предложил ему сослаться на несколько дел об авиационных происшествиях, которые сам адвокат не смог обнаружить при поиске обычными средствами. Юрист поверил искусственному интеллекту. ChatGPT упоминал авиакомпании, которых вообще никогда не существовало.
Я действовал из ложной предпосылки, что этот веб-сайт получил информацию об этих делах из источников, к которым у меня не было доступа. Я не подозревал, что ChatGPT может сам фабриковать примеры судебных дел, – говорит Стивен Шварц на судебном заседании.
Юрист не проверил корректность информации должным образом и принёс извинения. По словам Шварца, из-за использования ChatGPT он «пострадал в личном и профессиональном плане», из-за чего чувствует себя униженным.
После этого инцидента, юридическая фирма ввела дополнительные правила для адвокатов, чтобы предотвратить повторение таких инцидентов. Второй юрист, Питер Лодука, признал, что полностью доверял своему коллеге и не стал дополнительно проверять информацию, которую тот предоставил.
Судья заявил, что глубоко разочарован их работой, поскольку юристы даже не попытались своевременно скорректировать иск и убрать из него ссылки на несуществующие прецеденты. О том, что в их иске содержится чистый вымысел, представители авиакомпании-ответчика уведомили Шварца и Лодуку ещё в марте. Адвокаты не обратили внимания на откровенные несоответствия в созданной ChatGPT части иска, которые судья назвал «юридической чепухой». Судья зачитал отрывки из иска, наглядно демонстрирующие их бессмысленность с правовой точки зрения.
Это первый задокументированный случай потенциального профессионального нарушения со стороны адвоката, связанный с использованием генеративного искусственного интеллекта. Он наглядно демонстрирует опасность использования многообещающих ИИ-технологий без осознания связанных с этим рисков, – прокомментировал специалист по цифровой безопасности Дэниел Шин, помощник директора по исследованиям в Центре юридических и судебных технологий при государственном юридическом университете William & Mary Law School в штате Вирджиния.
Какую именно ответственность понесут юристы, доверившиеся ChatGPT, станет известно в ближайшее время.
Напомним, ранее сообщалось, что искусственный интеллект создал антибиотик, который убивает супербактерии.