Лекция
#1.28
Цена ошибки алгоритма- разбор судебных кейсов в мире ИИ
Обсудили реальные кейсы, когда ИИ увольнял людей, выдавал фейковые решения и нарушал законы.
Overview
- Обсуждение судебных кейсов с ИИ в различных странах выявило отсутствие устоявшейся правовой базы и новые вызовы в области дискриминации, непрозрачности решений, нарушения авторских прав и защиты персональных данных.
- Коллективный иск против Uber и Ola в Амстердаме привел к штрафу в 584 тыс. евро за автоматизированные решения об увольнении без участия человека. Кейс с FaceID в Великобритании завершился мировым соглашением из-за дискриминации.
- Рекомендации по снижению рисков включают документирование процессов обучения ИИ, многоуровневое тестирование с участием человека, обеспечение прозрачности алгоритмов и проверку легальности источников данных, что критически важно для соблюдения правовых норм.
Введение и постановка проблемы (00:07 - 06:01)
- Обсуждение судебных кейсов с ИИ в разных странах, акцент на новые вызовы и отсутствие устоявшейся правовой базы.
- Выделены основные типы нарушений: дискриминация, непрозрачность решений, нарушение авторских прав, персональных данных, завышенные маркетинговые ожидания.
Кейсы дискриминации и непрозрачности ИИ-алгоритмов (06:01 - 11:53)
- Коллективный иск против Uber и Ola в Амстердаме: автоматизированные решения об увольнении без участия человека, штраф 584 тыс. евро.
- Кейс с FaceID в Великобритании: сбои в распознавании лиц, увольнение и восстановление курьера, мировое соглашение из-за риска расовой дискриминации.
Нарушение авторских прав: изображения, тексты, музыка (11:54 - 18:16)
- Коллективный иск художников против Midjourney и Stability за использование их работ для обучения ИИ.
- Иск The New York Times против OpenAI и Microsoft за использование текстов для обучения моделей без компенсации.
- Музыкальные издательства против Anthropic за незаконное использование текстов песен; дело решено мировым соглашением.
Ошибки и баги ИИ: клевета, галлюцинации, убытки компаний (18:16 - 24:01)
- Иск радиоведущего Марка Уолтерса к OpenAI за клевету — суд отклонил иск, сославшись на пользовательское соглашение.
- Провал презентации Google Bard: ошибки в ответах привели к падению капитализации компании на 9%.
- Кейс с адвокатом из Канады: ChatGPT сгенерировал несуществующие судебные решения, что привело к репутационным потерям.
Дискриминация и баги в реальных кейсах (24:01 - 29:20)
- Amazon: проект по найму сотрудников на основе ИИ был закрыт из-за дискриминации женщин в резюме.
- Китай: ошибка системы распознавания лиц привела к ошибочному штрафу и снижению социального рейтинга женщины-директора.
- Футбольный матч: ИИ спутал лысину судьи с мячом, что вызвало недовольство зрителей.
Рекомендации по снижению рисков и финальные выводы (29:20 - 34:45)
- Необходимость документирования процессов обучения ИИ и тестирования.
- Внедрение многоуровневого тестирования с участием человека.
- Обеспечение прозрачности алгоритмов и объяснимости решений.
- Проверка легальности источников данных и лицензий.
- Учет национального регулирования и страхование от ошибок ИИ.
- ?? Российский кейс и практическое применение ИИ в юриспруденции (34:45 - 39:58)
- Кейс Александра Цветкова: ошибочная идентификация по фотороботу, полгода в СИЗО, освобождение после доказательства невиновности.
- Обсуждение практического использования ИИ для аналитики, транскрибации судебных заседаний, подготовки документов и анализа судебной практики.
- Ограничения по использованию защищённых баз данных (Консультант, Гарант) для обучения ИИ.
Завершение встречи и вопросы участников (39:58 - 40:10)
- Ответы на вопросы о личном опыте использования ИИ в юридической практике.
- Обсуждение возможностей и ограничений современных правовых систем для анализа судебных решений.
Action items
Unassigned
- Документировать процессы обучения ИИ, создавать карты моделей и технические описания для отслеживания источников ошибок (28:40)
- Проводить многократное тестирование ИИ-систем с участием человека и различных фокус-групп (29:20)
- Внедрять прозрачность алгоритмов и возможность объяснения решений («кнопка почему так?») (30:00)
- Проводить проверку лицензий и источников данных (IP-клининг) для предотвращения нарушений авторских прав (30:30)
- Встраивать правовые нормы и учитывать национальное регулирование при внедрении ИИ-сервисов (риск-матрица) (31:16)
- Рассмотреть возможность страхования от ошибок ИИ и управленческих решений (32:30)
Видеозапись