
Голливуд против роботов: почему Гордон-Левитт хочет заморозить искусственный интеллект
Актёр и режиссёр Джозеф Гордон-Левитт обратил внимание на опасность стремительного развития искусственного интеллекта. По словам артиста, миру стоит взять паузу, прежде чем делать следующий шаг к созданию машин, превосходящих человека по уму.
Почему Гордон-Левитт требует остановки
Звезда фильма "Начало" подписал международную петицию, призывающую временно приостановить исследования в области сверхразумного ИИ. Документ, на который ссылается The Wrap, объединяет политиков, религиозных лидеров, экспертов по технологиям и представителей шоу-бизнеса, включая Стивена Фрая, Will. i.am, Кейт Буш, режиссёра Дэна Квана и певицу Граймс.
В обращении говорится, что развитие искусственного интеллекта без надзора и строгих норм может привести к масштабным последствиям:
• потере рабочих мест и власти людьми;
• ослаблению гражданских прав;
• угрозе национальной безопасности;
• риску вымирания человечества.
"Многие ведущие компании стремятся создать сверхинтеллект уже в ближайшие десять лет, и он будет значительно превосходить людей по когнитивным способностям", — говорится в документе.
По мнению Гордон-Левитта, человечеству нужно установить чёткие стандарты безопасности и этики, прежде чем давать ИИ возможность самостоятельно принимать решения.
Видеопослание актёра
Гордон-Левитт разместил в соцсетях короткий ролик, где задался вопросом: зачем вообще создавать искусственный интеллект, умнее человека.
"Не нужно создавать сверхразум, пока мы не докажем, что это безопасно, и пока люди действительно этого не захотят", — сказал актёр.
Он отметил, что крупные IT-корпорации прежде всего руководствуются финансовыми интересами и стремятся сделать системы, способные имитировать человеческие чувства и эмоции. Однако, по мнению артиста, такие эксперименты требуют строгого контроля, чтобы избежать последствий, которые невозможно будет обратить.
Новый проект Netflix
Параллельно с общественными инициативами Гордон-Левитт продолжает творческую работу. Актёр готовит фильм об искусственном интеллекте для Netflix. Главную роль в картине исполнит Рейчел МакАдамс, а сценарий написан самим Гордоном-Левиттом совместно с Кираном Фицджеральдом, известным по фильму "Сноудэн". Производством занимается студия T-Street, основанная Райаном Джонсоном. В проект также вовлечена актриса и режиссёр Наташа Лионн.
Сравнение подходов
Подход | Суть | Риски | Потенциальная выгода |
Полная пауза | Временное прекращение исследований сверхразумных систем | Отставание в технологиях | Время для выработки международных правил |
Контролируемое развитие | Разработка ИИ под строгим надзором и в рамках этических норм | Возможные утечки и злоупотребления | Безопасное внедрение инноваций |
Свободный рынок | Минимум ограничений и быстрый прогресс | Потенциальные катастрофические последствия | Экономический и технологический рост |
Что предлагают эксперты
-
Создать международный комитет по этике ИИ, куда войдут представители науки, бизнеса и права.
-
Ввести обязательную сертификацию алгоритмов, способных к самообучению.
-
Принять закон о прозрачности данных и алгоритмов, доступных пользователям.
-
Запустить программы по образованию населения о принципах работы ИИ.
Ошибка → Последствие → Альтернатива
-
Ошибка: компании создают сверхразум, не проверив уровень его автономии.
-
Последствие: потеря контроля над системой и возможный сбой в управлении критическими процессами.
-
Альтернатива: постепенное тестирование в ограниченных средах с обязательным человеческим надзором.
А что если искусственный интеллект уже ближе, чем кажется?
Некоторые исследователи уверены, что первые элементы сверхинтеллекта уже существуют — например, в моделях, способных анализировать и создавать сложные тексты или изображения. Если это так, то ключевой вопрос заключается не в том, можем ли мы создать такого "мыслящего" ИИ, а готовы ли мы жить рядом с ним.
Плюсы и минусы временного моратория
Плюсы | Минусы |
Повышение безопасности и прозрачности | Замедление научного прогресса |
Время для формирования законодательных рамок | Потеря конкурентных преимуществ |
Повышение доверия общества к технологиям | Возможное смещение фокуса инвестиций в теневой сектор |
FAQ
Какова цель петиции?
Главная цель — временно заморозить работы по созданию сверхразумного ИИ до тех пор, пока не будут введены международные стандарты безопасности.
Кто подписал документ?
Среди подписантов — актёры, музыканты, политики и специалисты по технологиям, включая Стивена Фрая, Will. i.am и Кейт Буш.
Что делает сам Гордон-Левитт?
Он активно продвигает идею ответственного подхода к ИИ и одновременно работает над фильмом для Netflix, где поднимает схожие вопросы.
Мифы и правда
-
Миф: развитие искусственного интеллекта нельзя остановить.
Правда: государства и корпорации могут договориться о временном моратории и совместных стандартах безопасности. -
Миф: ИИ уже способен заменить человека во всех сферах.
Правда: большинство современных систем ограничено конкретными задачами и не обладает самосознанием. -
Миф: пауза в разработке приведёт к полному застою.
Правда: приостановка может стать временем для укрепления этических и правовых основ.
Интересные факты
-
Первая петиция о моратории на ИИ появилась ещё в 2015 году и была подписана Стивеном Хокингом и Илоном Маском.
-
В 2023 году аналогичное обращение поддержали более тысячи исследователей из MIT и Стэнфорда.
-
В некоторых странах, включая Канаду и Южную Корею, уже ведётся разработка законов о контроле над автономными алгоритмами.
Подписывайтесь на NewsInfo.Ru