Элон Маск, Стив Возняк и более 1000 других предпринимателей, ученых и профессоров подписали петицию Института будущего жизни о временной приостановке разработки искусственных интеллектов, таких как чатбот GPT-4. Что стоит за такими опасениями?
Хочет ли Элон Маск остановить развитие искусственного интеллекта (ИИ)?
Элон Маск, Стив Возняк и другие предприниматели, ученые и профессора подписали петицию, предложенную Институтом будущего жизни, которая призывает временно остановить развитие искусственного интеллекта:
Мы призываем лаборатории ИИ временно приостановить обучение мощных моделей!
Присоединяйтесь к призыву FLI вместе с Йошуа Бенгио, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus и еще более 1000 подписавшихся: https://t.co/3rJBjDXapc
Коротко о том, почему мы призываем к этому — (1/8)
— Future of Life Institute (@FLIxrisk) March 29, 2023
На момент написания письма было собрано в общей сложности 1 377 подписей. Цель этого письма — приостановить по крайней мере на шесть месяцев обучение таких систем, как GPT-4, новой версии знаменитого чат-бота от OpenAI, компании, соучредителем которой является Элон Маск.
Главной проблемой является место человека по отношению к этим разработкам. В этом смысле поднимается несколько вопросов, таких как алгоритмы, которые могут решать, что мы видим в различных социальных сетях, автоматизация различных операций и разработка разумов, более интеллектуальных, чем человеческие существа:
Такие решения не должны быть делегированы неизбираемым технологическим лидерам. Мощные системы искусственного интеллекта должны разрабатываться только после того, как мы будем уверены, что их эффект будет положительным, а риски — управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с увеличением масштаба потенциальных эффектов системы. «
С другой стороны, петиция призывает переориентировать развитие ИИ на такие технологические области, которые являются «безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и справедливыми»
Является ли ИИ реальной опасностью?
Как и любая технологическая инновация, ИИ вызывает вопросы. Уже в эпоху промышленной революции люди задавались вопросом о своей потенциальной замене машинами, а такие фантастические произведения, как «Терминатор», разжигали страсти по поводу возможного сценария конца света, но действительно ли мы стоим на пороге Сингулярности? Этот вопрос вызывает разногласия.
Эти вопросы не заставили себя ждать в связи с недавним всплеском популярности ИИ в социальных сетях.
Однако этические проблемы действительно существуют, особенно в том, что касается способа обучения этих систем. Как и все наши действия в Интернете, каждое взаимодействие с искусственным интеллектом дает ему информацию о нас, и мы бесплатно кормим алгоритмы частных компаний.
Таким образом, интересно задаться вопросом, как эти данные используются и будут использоваться этими компаниями, что может представлять собой более рациональную опасность, чем фантазии о полностью автономном супер ИИ на данный момент.
Что касается замены людей, то, как и в других областях технологии, хотя ИИ действительно может ликвидировать некоторые рабочие места, параллельно он будет создавать другие. Короче говоря, это морально нейтральный инструмент, опасность или польза которого зависит от того, как его использовать.