Перейти к содержимому
Лекция
#1.28

Цена ошибки алгоритма- разбор судебных кейсов в мире ИИ

Обсудили реальные кейсы, когда ИИ увольнял людей, выдавал фейковые решения и нарушал законы.

Overview

  • Обсуждение судебных кейсов с ИИ в различных странах выявило отсутствие устоявшейся правовой базы и новые вызовы в области дискриминации, непрозрачности решений, нарушения авторских прав и защиты персональных данных.
  • Коллективный иск против Uber и Ola в Амстердаме привел к штрафу в 584 тыс. евро за автоматизированные решения об увольнении без участия человека. Кейс с FaceID в Великобритании завершился мировым соглашением из-за дискриминации.
  • Рекомендации по снижению рисков включают документирование процессов обучения ИИ, многоуровневое тестирование с участием человека, обеспечение прозрачности алгоритмов и проверку легальности источников данных, что критически важно для соблюдения правовых норм.

Введение и постановка проблемы (00:07 - 06:01)

  • Обсуждение судебных кейсов с ИИ в разных странах, акцент на новые вызовы и отсутствие устоявшейся правовой базы.
  • Выделены основные типы нарушений: дискриминация, непрозрачность решений, нарушение авторских прав, персональных данных, завышенные маркетинговые ожидания.

Кейсы дискриминации и непрозрачности ИИ-алгоритмов (06:01 - 11:53)

  • Коллективный иск против Uber и Ola в Амстердаме: автоматизированные решения об увольнении без участия человека, штраф 584 тыс. евро.
  • Кейс с FaceID в Великобритании: сбои в распознавании лиц, увольнение и восстановление курьера, мировое соглашение из-за риска расовой дискриминации.

Нарушение авторских прав: изображения, тексты, музыка (11:54 - 18:16)

  • Коллективный иск художников против Midjourney и Stability за использование их работ для обучения ИИ.
  • Иск The New York Times против OpenAI и Microsoft за использование текстов для обучения моделей без компенсации.
  • Музыкальные издательства против Anthropic за незаконное использование текстов песен; дело решено мировым соглашением.

Ошибки и баги ИИ: клевета, галлюцинации, убытки компаний (18:16 - 24:01)

  • Иск радиоведущего Марка Уолтерса к OpenAI за клевету — суд отклонил иск, сославшись на пользовательское соглашение.
  • Провал презентации Google Bard: ошибки в ответах привели к падению капитализации компании на 9%.
  • Кейс с адвокатом из Канады: ChatGPT сгенерировал несуществующие судебные решения, что привело к репутационным потерям.

‍ Дискриминация и баги в реальных кейсах (24:01 - 29:20)

  • Amazon: проект по найму сотрудников на основе ИИ был закрыт из-за дискриминации женщин в резюме.
  • Китай: ошибка системы распознавания лиц привела к ошибочному штрафу и снижению социального рейтинга женщины-директора.
  • Футбольный матч: ИИ спутал лысину судьи с мячом, что вызвало недовольство зрителей.

Рекомендации по снижению рисков и финальные выводы (29:20 - 34:45)

  • Необходимость документирования процессов обучения ИИ и тестирования.
  • Внедрение многоуровневого тестирования с участием человека.
  • Обеспечение прозрачности алгоритмов и объяснимости решений.
  • Проверка легальности источников данных и лицензий.
  • Учет национального регулирования и страхование от ошибок ИИ.
  • ?? Российский кейс и практическое применение ИИ в юриспруденции (34:45 - 39:58)
  • Кейс Александра Цветкова: ошибочная идентификация по фотороботу, полгода в СИЗО, освобождение после доказательства невиновности.
  • Обсуждение практического использования ИИ для аналитики, транскрибации судебных заседаний, подготовки документов и анализа судебной практики.
  • Ограничения по использованию защищённых баз данных (Консультант, Гарант) для обучения ИИ.

Завершение встречи и вопросы участников (39:58 - 40:10)

  • Ответы на вопросы о личном опыте использования ИИ в юридической практике.
  • Обсуждение возможностей и ограничений современных правовых систем для анализа судебных решений.

Action items

Unassigned

  • Документировать процессы обучения ИИ, создавать карты моделей и технические описания для отслеживания источников ошибок (28:40)
  • Проводить многократное тестирование ИИ-систем с участием человека и различных фокус-групп (29:20)
  • Внедрять прозрачность алгоритмов и возможность объяснения решений («кнопка почему так?») (30:00)
  • Проводить проверку лицензий и источников данных (IP-клининг) для предотвращения нарушений авторских прав (30:30)
  • Встраивать правовые нормы и учитывать национальное регулирование при внедрении ИИ-сервисов (риск-матрица) (31:16)
  • Рассмотреть возможность страхования от ошибок ИИ и управленческих решений (32:30)
Видеозапись

Доступно участникам клуба

Записи всех встреч — внутри клуба

Подать заявку