Неделя началась с двух заметных случаев, которые прямо затрагивают вопросы приватности и ответственности разработчиков ИИ: Индонезия ограничила доступ к языковой модели после выявления сексуализированных дипфейков без согласия изображённых, а OpenAI оказалась в центре критики за просьбы подрядчикам загружать реальные материалы с прошлых мест работы.
Индонезия временно заблокировала Grok после того, как регуляторы и пользователи обнаружили, что модель генерирует сексуализированные дипфейки людей без их согласия. Случай подчёркивает, что даже чат‑модели и генеративные системы, изначально позиционируемые как инструменты общения, могут использоваться для создания материалов, наносящих вред конкретным людям, и что национальные регуляторы готовы оперативно вмешиваться, когда речь идёт о нарушении личных прав и морали в цифровой среде.
По сообщению TechCrunch, OpenAI попросила подрядчиков загружать реальные работы с прошлых мест занятости — подробности здесь. Такая практика подняла тревогу по поводу интеллектуальной собственности, конфиденциальности и юридической ответственности: многие компании запрещают передавать клиентские или корпоративные материалы третьим лицам, и запрос на «реальные работы» без надлежащего обезличивания может привести к утечкам данных и искам.
Обе истории показывают одну и ту же проблему под разными углами: данные и примеры, которыми кормят модели, не нейтральны. Если не прописывать чёткие правила получения, фильтрации и проверки источников данных, последствия могут быть как индивидуально травмирующими (в случае дипфейков), так и юридически и коммерчески опасными (в случае передачи рабочих материалов).
