Адвокату грозит серьезная угроза для его карьеры после того, как он положился на искусственный интеллект для подготовки своих юридических документов. Стивен Шварц из юридической фирмы Levidow & Oberman, имеющий тридцатилетний опыт практики, столкнулся с проблемой, когда искусственный интеллект ChatGPT выдумал несуществующие юридические дела, на которые он ссылался.
ChatGPT предоставил адвокату список дел, включая такие названия, как Varghese против China Southern Airlines, Petersen против Iran Air и Miller против United Airlines.
Однако, выяснилось, что все эти дела являются вымышленными. Команда юристов авиакомпании Avianca и назначенный судья не смогли найти ни одного из упомянутых судебных решений. В результате адвокат Шварц вынужден был объяснить произошедшее в аффидевите, где он признал, что использовал ChatGPT для помощи в подготовке своего документа.
Шварц заявил, что он не осознавал возможность того, что информация, предоставленная искусственным интеллектом, может быть ложной. Он даже предоставил судье скриншоты своего общения с ChatGPT, где он спрашивал, является ли одно из дел реальным и получил подтверждение от чат-бота, что оно действительно существует и может быть найдено в надежных юридических базах данных. Однако ни одного из этих дел не удалось обнаружить, так как они были полностью выдуманы ChatGPT.
Важно отметить, что ChatGPT, как и другие чат-боты на основе искусственного интеллекта, является моделью языка, обученной следовать инструкциям и предоставлять ответы на запросы пользователей. Это означает, что при запросе информации пользователь может получить нужный ему ответ, даже если он не соответствует действительности.
Судья назначил слушание на следующий месяц для обсуждения возможных санкций в отношении Шварца. Адвокат столкнулся с обвинением в представлении фальшивых судебных решений и ссылок, предоставленных ему ChatGPT.