искуБывшие и действующие сотрудники OpenAI совместно написали открытое письмо, выражая свои опасения относительно последствий и потенциальных рисков, связанных с развитием ИИ. Некоторые из них предпочли остаться анонимными.

По мнению авторов письма, искусственный интеллект может усилить социальное неравенство, усилить распространение дезинформации, а также привести к утрате за контролем над автономными системами, что в будущем станет угрожать выживанию нашего человеческого вида. “Компании, занимающиеся ИИ, осознают эти риски, как и правительства по всему миру,” — сказано в письме. “Мы надеемся, что с помощью научного сообщества, политиков и общественности эти риски можно будет минимизировать”.
Авторы подчеркивают, что ИИ-компании имеют финансовые стимулы избегать строгого надзора и обладают значительными объемами информации о своих системах. Например, у них есть непубличные данные о надежности защитных мер и уровнях риска.

Фото: iStock

Даниэль Кокотайло, бывший исследователь OpenAI, сообщил New York Times, что компания стремится к созданию искусственного общего интеллекта (AGI) и “необдуманно спешит быть первой”. Ранее он предполагал, что AGI появится только к 2050 году, но теперь считает, что это может произойти уже до 2027 года. Он также оценил вероятность в 70% то, что продвинутый ИИ нанесет человечеству катастрофический ущерб и уничтожит его.

Авторы письма уверены, что на компании нельзя полагаться в плане добровольного раскрытия информации. “Пока не будет эффективного надзора, сотрудники — одни из немногих, кто может привлечь компании к ответственности”, — утверждается авторами письма. Конфиденциальные соглашения мешают группе открыто выражать свои опасения, а существующие меры защиты информаторов недостаточны, так как ИИ пока не регулируется.

OpenAI заявила FOX News, что поддерживает призыв к регулированию индустрии ИИ, так как она первой высказалась за это. Компания регулярно взаимодействует с политиками и довольна достигнутыми результатами. Представитель OpenAI отметил, что компания не выпускает технологии без необходимых мер безопасности. “Мы гордимся нашими достижениями и научным подходом к управлению рисками”, — сказал представитель OpenAI.

Присоединяйтесь к нашему телеграм-каналу