Информация к новости
28-09-2024, 18:00

Люди повинні поступитися місцем ІІ, і чим раніше, тим краще

Категория: Новини / Наука та освіта

У нас появился канал в Telegram, в котором мы будем делиться с Вами новостями

 


В целиком посвященном ИИ спецвыпуске авторской программы «Время Белковского» (рекомендую) уважаемый автор программы, предваряя разбор моей статьи «Фиаско 2023», назвал меня «алармистом». И это действительно так. Но нужно уточнить. Речь идет не о психологическом алармизме (особом, тревожном, паническом чувстве и мироощущении, воспринимаемом человеком, как предощущение будущего несчастья), а об алармизме социальном. Этот вид алармизма выполняет роль «колокола тревоги» среди благодушия, эгоизма, безразличия, инертности, беспечности (а то и подлости, предательства и злонамеренности) значительного числа членов общества. Такой алармизм содержат в себе важный рациональный момент: он придает соответствующим проблемам статус серьезных социальных проблем, требующих к себе серьезного же отношения общества.

Так что же это за проблемы, связанные с развитием ИИ?
Их много и они весьма серьезны. Но в духе известной истории «почему не стреляли – во-первых, не было пороха», я назову всего лишь одну. На мой взгляд, решающую.

• Представьте, если бы многие ведущие биологи мира регулярно говорили что-то вроде: «Я думаю, было бы хорошо, если бы какая-то болезнь уничтожила человечество — ведь это поможет эволюции!»
• Или если бы многие генералы и полковники крупнейших ядерных держав считали, что уничтожение человечества следует приветствовать, ибо Вселенная станет лучше, если на смену людям придет новый более моральный и умный носитель высшего интеллекта.

Как это ни покажется кому-то поразительным и шокирующим, но подобным образом думает значительное число ведущих исследователей и инженеров в области ИИ. 
• Их не беспокоит риск вымирания человечества не потому, что они считают это маловероятным, а потому, что они это приветствуют.
• Они считают, что люди должны быть заменены ИИ в качестве естественного следующего шага в эволюции, и чем раньше, тем лучше.

По оценкам Эндрю Критча (СЕО Encultured AI и научный консультант «Центра ИИ» в  Универе Беркли), «>5% специалистов в области ИИ, с которыми я разговаривал о риске вымирания человечества, утверждали, что вымирание людей в результате воздействия ИИ - это морально нормально, а еще ~5% утверждали, что это было бы хорошо.»
Об обоснованиях таких суждений среди сотен инженеров, ученых и профессоров в области ИИ, можно прочесть здесь.

Приведу лишь в качестве примера одну цитату весьма уважаемого мною интеллектуала - почетного профессора молекулярной биологии и зоологии, директора программы по биологии разума Дерика Боундса (вот, например, его лекция о разуме – одна из лучших в мире за последние три года). 

Лингвистические возможности генеративных предварительно обученных трансформеров на основе кремния - те самые возможности, которые сделали возможной человеческую цивилизацию, - скоро превысят возможности человека. Мы довели наше понимание того, что представляет собой человек в его нынешнем виде, до уровня плато, на котором дальнейшие приращения понимания будут становиться все более незначительными. Сливки сняты, лучшие вишни собраны … В чем смысл человека, кроме как в том, чтобы быть самовоспроизводящейся машиной, которая эволюционирует в дальнейшие формы, надеюсь, до того, как уничтожит себя, разрушив экологическую среду, необходимую для ее жизнеобеспечения? Могут ли они эволюционировать в трансчеловеческий разумы (или разум, в единственном числе)?




Если вы обнаружили ошибку на этой странице, выделите ее и нажмите Ctrl+Enter.

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.