Адвокат, представляющий компанию Anthropic, признал использование неправильной цитаты, созданной чат-ботом Claude AI, во время продолжающегося судебного процесса с музыкальными издателями. Это стало известно из представления, сделанного в суде Северной Калифорнии в четверг.
Об этом сообщает ProIT
Согласно представленным материалам, Claude «галлюцинировал» цитату с «неточным названием и неточными авторами». В документах Anthropic указано, что их «ручная проверка цитат» не выявила этой ошибки, а также нескольких других, вызванных «галлюцинациями» Claude.
«Мы приносим извинения за эту ошибку и считаем ее добросовестной ошибкой в цитировании, а не фальсификацией авторитета».
В начале этой недели адвокаты, представляющие Universal Music Group и других музыкальных издателей, обвинили экспертного свидетеля Anthropic — одного из сотрудников компании, Оливию Чен — в использовании Claude для цитирования фальшивых статей в ее свидетельских показаниях. Судья федерального суда, Сьюзен ван Кулен, приказала Anthropic ответить на эти обвинения.
Иск музыкальных издателей является лишь одним из нескольких споров между правообладателями и технологическими компаниями относительно возможного злоупотребления их работой для создания генеративных инструментов искусственного интеллекта.
Этот случай стал очередным примером того, как адвокаты используют искусственный интеллект в суде, а затем сожалеют об этом. Ранее на этой неделе судья Калифорнии раскритиковал пару юридических фирм за представление «фальшивых исследований, созданных искусственным интеллектом» в суд. В январе австралийский адвокат был пойман на использовании ChatGPT при подготовке судебных документов, что привело к ошибочным цитатам.
Тем не менее, эти ошибки не мешают стартапам привлекать огромные средства для автоматизации юридической работы. Компания Harvey, использующая генеративные модели искусственного интеллекта для помощи юристам, якобы ведет переговоры о привлечении более 250 миллионов долларов при оценке в 5 миллиардов долларов.