Эксперты в сфере разработки искусственного интеллекта требуют строгого регулирования дипфейков: подписанное письмо оглашает угрозу для общества

Сотни представителей сообщества искусственного интеллекта, включая выдающихся специалистов и таких активистов, как Джарон Ланье, Фрэнсис Хауген и Стюарт Рассел, подписали открытое письмо, в котором выразили неотложную необходимость строгого регулирования дипфейков. Это письмо, поддержанное более чем 500 учёными и практикующими специалистами индустрии искусственного интеллекта, возлагает на правительства всего мира ответственность по принятию обязательных мер, целью которых является остановка распространения дезинформации и вредоносных дипфейков.

Эксперты в сфере разработки искусственного интеллекта требуют строгого регулирования дипфейков: подписанное письмо оглашает угрозу для общества
Источник: Hiretual

В письме, которое было подписано специалистами из различных компаний и организаций, включая OpenAI, DeepMind (подразделение Google), Anthropic, Amazon, Apple и Microsoft, отмечается, что дипфейки представляют серьёзную угрозу для общества. Они призывают к полной криминализации материалов, содержащих фейковую информацию о сексуальном насилии над детьми. При этом, предлагается независимо от того, являются ли изображённые фигуры реальными или вымышленными, привлекать к уголовной ответственности всех, кто создает или распространяет такие материалы.

Важной составляющей письма является призыв к разработчикам искусственного интеллекта принять ответственность за предотвращение создания и распространения вредоносных дипфейков. Предлагается применять штрафные санкции в случае неадекватности профилактических мер, предпринятых разработчиками.

Учёные и специалисты со всего мира, присоединившиеся к этому призыву, подчеркнули важность этих мер. Более того, они указывают на необходимость законодательного регулирования данной проблемы. В своем письме они подчёркивают, что восприятие этого вызова Европейским Союзом и его готовность предложить меры, а также медленное продвижение Закона о безопасности детей в Интернете (KOSA) могли стимулировать активное обсуждение данной темы и вызвать общественное внимание к проблеме дипфейков.

Несмотря на это, остается неизвестным, примут ли законодатели все эти предложения во внимание. Предыдущее письмо, призывающее к приостановке разработки искусственного интеллекта, не получило должного внимания. Однако, этот новый призыв более практичен и предлагает конкретные шаги для решения проблемы. Авторы надеются, что список подписавшихся экспертов будет использоваться законодателями для оценки мирового отклика на эту тему и в формировании стратегии регулирования сферы искусственного интеллекта.


Источник