Информаторы OpenAI обратились в Комиссию по ценным бумагам и биржам США (SEC) с жалобой, утверждая, что компания незаконно ограничила права своих сотрудников на предупреждение регулирующих органов о потенциальных рисках, связанных с технологией OpenAI. Согласно семистраничному письму, отправленному комиссару SEC в этом месяце и эксклюзивно полученному The Washington Post, информаторы заявляют, что OpenAI выдала сотрудникам чрезмерно ограничительные соглашения о найме, выходном пособии и неразглашении, которые могли привести к штрафам для работников, выразивших обеспокоенность по поводу компании федеральным регулирующим органам.
В письме утверждается, что OpenAI заставила сотрудников подписать соглашения о сотрудничестве, требующие от них отказа от федеральных прав на компенсацию осведомителям. Кроме того, эти соглашения требовали от сотрудников OpenAI получения предварительного согласия компании перед раскрытием информации федеральным органам.
OpenAI не создавала исключений в своих положениях о недискредитации сотрудников для раскрытия нарушений ценных бумаг в SEC. По мнению информаторов, такие широкие соглашения нарушают федеральные законы и правила, призванные защищать информаторов, желающих анонимно и без страха возмездия раскрыть компрометирующую информацию о своей компании.
«Эти контракты посылали сигнал о том, что «мы не хотим, чтобы сотрудники общались с федеральными регулирующими органами». Я не думаю, что компании ИИ могут создавать безопасные технологии, отвечающие общественным интересам, если они будут ограждать себя от пристального внимания и инакомыслия», — сказал один из информаторов, пожелавший остаться анонимным.
Представитель OpenAI Ханна Вонг заявила: «Наша политика в отношении осведомителей защищает права сотрудников на защищенное раскрытие информации. Кроме того, мы считаем, что интенсивные дебаты об этой технологии имеют важное значение, и уже внесли важные изменения в наш процесс увольнения, чтобы исключить условия недискредитации».
Жалоба информаторов появилась на фоне опасений, что OpenAI, начавшая как некоммерческая организация с альтруистической миссией, ставит прибыль выше безопасности при разработке своей технологии. The Washington Post сообщила, что OpenAI поторопилась с выпуском своей последней модели ИИ, питающей ChatGPT, несмотря на опасения сотрудников о невыполнении протокола тестирования безопасности. Представитель OpenAI Линдси Хелд заявила, что компания «не экономила на нашем процессе обеспечения безопасности, хотя мы признаем, что запуск был стрессовым для наших команд».
Строгие соглашения о конфиденциальности технологических компаний давно вызывают обеспокоенность работников и регулирующих органов. Такие юридические соглашения ограничивают возможность сотрудников сообщать о неправомерных действиях, включая сексуальные домогательства, расовую дискриминацию и другие нарушения. Регулирующие органы обеспокоены тем, что эти условия «затыкают рот» техническим сотрудникам, которые могут предупредить их о неправомерных действиях в непрозрачном технологическом секторе.
Быстрое развитие искусственного интеллекта усилило обеспокоенность политиков относительно мощи технологической отрасли, вызвав призывы к регулированию. В США компании ИИ в основном работают в правовом вакууме, и политики заявляют, что они не могут эффективно создавать новые политики ИИ без помощи информаторов, которые могут помочь объяснить потенциальные угрозы, создаваемые быстро развивающейся технологией.
Сенатор Чак Грассли, республиканец от Айовы, заявил: «Политика и практика OpenAI, по всей видимости, оказывают сдерживающее воздействие на право информаторов высказываться и получать надлежащую компенсацию за свои защищённые раскрытия. Чтобы федеральное правительство оставалось на шаг впереди искусственного интеллекта, соглашения о неразглашении OpenAI должны измениться».
Копия письма, адресованного председателю SEC Гэри Генслеру, была отправлена в Конгресс. Официальные жалобы, упомянутые в письме, были поданы в SEC в июне. Стивен Кон, адвокат, представляющий интересы информаторов OpenAI, заявил, что SEC отреагировала на жалобу, но не удалось определить, начала ли SEC расследование. Агентство не ответило на запрос о комментарии.
В письме говорится, что SEC должна предпринять «быстрые и решительные» шаги для пресечения этих незаконных соглашений, поскольку они могут иметь отношение к более широкому сектору ИИ и могут нарушить октябрьский указ Белого дома, требующий от компаний, занимающихся ИИ, безопасной разработки технологии. «В основе любых подобных усилий лежит признание того, что инсайдеры должны иметь возможность сообщать о проблемах без страха возмездия», — говорится в письме.