Президент Microsoft: не верьте ни одному видео, которое вы видите

Microsoft предупреждает о злоупотреблении искусственным интеллектомMicrosoft бьет тревогу по поводу растущего злоупотребления инструментами искусственного интеллекта (ИИ), особенно для создания дипфейков — реалистичных, созданных ИИ видео, аудио и изображений, которыми можно манипулировать для распространения дезинформации или нанесения вреда людям.

© Ferra

В своем блоге вице-президент Microsoft Брэд Смит подчеркивает потенциальную опасность этих технологий. Эта озабоченность отчасти проистекает из собственного опыта Microsoft. Недавно стало известно, что разработанные компанией инструменты искусственного интеллекта использовались для создания дипфейков певицы Тейлор Свифт. Этот инцидент подчеркивает, что необходимо срочно решать проблему, пока она не вышла из-под контроля.

Признавая необходимость решительных действий, компания Microsoft предлагает план из шести пунктов по борьбе с неправомерным использованием ИИ:

  • Сильная архитектура безопасности: это предполагает постоянную оценку безопасности, превентивные меры и оперативные действия против нарушителей.

  • Надежное подтверждение подлинности носителей и водяные знаки: Microsoft разработает методы отслеживания происхождения и истории контента, созданного искусственным интеллектом.

  • Защитные службы: компания обязуется заблаговременно удалять обманчивый и вредный контент.

  • Сотрудничество: Microsoft подчеркивает важность сотрудничества с другими технологическими компаниями, правительствами и гражданским обществом для совместного решения этой проблемы.

  • Модернизированное законодательство: компания призывает обновить законы, чтобы защитить людей от вредного использования технологий.

  • Информирование общественности: по мнению Microsoft, просвещение общественности о том, как распознавать подделки и другой манипулируемый контент, имеет решающее значение. Они планируют разработать образовательные инструменты и программы в сотрудничестве с различными заинтересованными сторонами.

  • Comments (0)
    Add Comment