Искусственный — это естественно, или Против артифобии

Леонид Ашкинази
«Троицкий вариант — Наука» №6(425), 25 марта 2025 года

Оригинал статьи на сайте «Троицкого варианта»

reve.art

reve.art

Страх перед искусственным интеллектом, артифобия (от artificial intelligence) — это разновидность ксенофобии.
Но фобии и подозрения насчет коварства ИИ — инфантильны.
Человек проецирует на ИИ свой врожденный, биологически мотивированный эгоизм.

Михаил Эпштейн

Леонид Ашкинази

Леонид Ашкинази

Рост интереса к искусственному интеллекту нельзя не заметить. Причин несколько, как объективных — разработки в области ИИ, такие как AlphaGo, Watson, GPT-4, достигли высокого уровня развития, — так и субъективных: эти программы «ведут себя» похоже на человека, достаточно умного, чтобы оказаться и полезным, и вредным. Человек чувствует, что имеет дело с могучей силой, и ему хочется, чтобы она и всё за него делала, и беспрекословно ему подчинялась. Ощущая, что это вряд ли совместимо, он начинает испытывать страх, приписывая этой силе свойственные человеку мерзости, которые видит вокруг, не понимая, что люди — участники и продукт определенной истории, а у ИИ такой истории нет.

Страх пользуется спросом на рынке, на нем паразитирует часть прессы, звучат умные, но не относящиеся к делу слова — «фазовый переход», «сингулярность», «синергия» и т. д., — вокруг этой темы возникают организации, помогающие людям заполнить свободное время и почувствовать свою значимость, потом подгребают готовые окормлять этот хайп политики. Такой ход событий мы уже видели.

Мне кажется, мы вообще недостаточно изучили влияние психологии исследователей на эволюцию наук. Например, по психологическим причинам циклические модели Вселенной могут показаться предпочтительнее моделей необратимого расширения, хотя жизнь наша невообразимо коротка по космологическим масштабам. Совершаем мы психологические ошибки и при обсуждении проблем ИИ. Эта статья посвящена анализу таких заблуждений. Мой позитив был опубликован ранее [12], будет его немного и в конце этого текста.

ИИ не создает ничего нового?

На человека влияет информация, которую он получает сам, изучая мир, от других людей, из книг, баз данных и т. п. Причем лишение человека большинства источников информации не исключает развития интеллекта [3]. Точно так же ИИ может общаться и с другими ИИ, и с людьми. ИИ, подключенный к андроиду, сможет изучать свое тело, как младенец, тянущий в рот большой палец правой ноги. Не приходило ли это в голову многочисленным уже существующим андроидам? Есть телескопы, видеокамеры, «интернет вещей» — всё это внешний мир, более доступный для ИИ, чем для нас.

Иногда говорят, что ИИ не создает ничего нового, но разве не станет новым партия в го или шахматы, выигранная у чемпиона мира? GPT-4 использует как источник информации Интернет и при обучении пользуется отзывами людей. Ровно так же учится любой человек — используя учебники и преподавателей (не у всех есть лабы). Поэтому, если ИИ не создает новое, то возникают сомнения в новизне и созданного человеком, или естественным интеллектом (далее — ЕИ).

Сравнение с человеком или с идеалом?

При обсуждении проблем ИИ мы часто прибегаем к сравнению ИИ с человеком. Эта традиция восходит к Тьюрингу, причем под «тестом Тьюринга» часто понимается не то, что он предложил. Но дело не в этом, дело в том, что люди разные — с кем и как сравнивать? На тестах IQ и креативности ИИ выглядит достойно — в сравнении с человеком. А с обезьяной? У нее тоже есть интеллект. А может ли существовать не сверх- и не недочеловеческий, а просто нечеловеческий интеллект, другой? Интеллект — часть психологии, задача «придумать психологию» не кажется безнадежной [4], как и сопутствующая задача — придумать социологию [5].

Сравнивая ИИ с человеком, иногда, не замечая, переходят к сравнению с идеалом, который может и вообще не существовать. Например, автомобиль, управляемый ИИ, намного безопасней обычного, но многие требуют от него безопасности абсолютной, недостижимой в принципе. Конструируя пугающие ситуации, авторы придумывают, скажем, ИИ-убийц, исправно уничтожающих представителей определенной демографической группы по приказам вышестоящих человеческих существ, в то время как люди в той же ситуации могут по крайней мере отказаться выполнять приказ. Но тут же проговариваются: приказ исходит от «человеческих существ». Да и исполнители, как мы видим, могут и не отказаться.

Еще пример ситуации, предложенный одним из оппонентов: человек садится в авто, хочет отправиться на запрещенный митинг, а его везут в полицию. Или просто подальше от этого места, заботясь, по законам Азимова, о безопасности пассажира. Но можно поступить и проще: остаться на месте, заперев дверь. Или закрыть всех в доме — беречь так беречь! Вот в мире каких кошмарных фантазий живут некоторые; отнеситесь к ним с пониманием и сочувствием. Обратите внимание: эти ужастики сконструировали умные люди, причем сконструировали именно на базе знания людей, человеческой истории.

Вот другая страшилка: ребенок с диагнозом «умственная отсталость» получает мозговой имплант, с которым становится гением, но это уже не тот ребенок, его тело стало «аватаром» ИИ, а мозг управляет только физиологическими функциями. Идея интересная, и, возможно, людям когда-то придется решать, реализовывать ли ее на практике и в какой мере. Можно, конечно, вместо решения пугаться; но это проблема человека, а не ИИ.

Ненадежными могут быть не только беспилотные автомобили и промышленные роботы. Любое устройство может нести в себе ошибки, допущенные его создателями или сбоями «железа». Мы к этому привыкли и как-то научились с этим справляться, хотя самолеты иногда путают верх и низ. Но и человек иногда путает своего и чужого. Только коробку с надписью «ИИ» человек боится больше, а потому предъявляет к ней требования посерьезнее. И совершенно зря — потому что сам он ошибается чаще этой программы.

ИИ алгоритмичен, а мы?

Иногда самым принципиальным отличием ИИ от ЕИ считают то, что ИИ «действует по алгоритму». Но нейроны в человеческом мозге тоже действуют по алгоритму, а то, что нейронов у человека очень много, не делает их тем самым «менее алгоритмичными». Если мы все-таки свяжем интеллект с количеством нейронов, то придется отвечать на вопрос: где границы? Если мы и осмелимся провести черту, то компьютерщики придумают систему-контраргумент. Если нам скажут, что в компьютере алгоритм не меняется в отличие от человека, то можно ответить, что алгоритм в компьютере тоже может изменяться, причем само изменение может не быть определено заранее.

На аргумент о непредсказуемости происходящего в мозгу человека мы спросим: как вы отличаете непредсказуемость от простого человеческого незнания или от случайных процессов? А в ответ будет лишь закатывание глаз и произнесенные с придыханием слова «голография» и «квантовые процессы».

Тут ощущается горячее дыхание серьезной проблемы. Проблема вложенных алгоритмов — это часть «проблемы возникновения нового». Когда при усложнении структуры и алгоритмов возникает «новое» и почему? Вариант ответа: когда мы видим изменение наблюдаемых признаков. Когда возникает речь, использование орудий, изготовление орудий, передача навыков, рисунки на стенах пещер... А на вопрос «почему» у нас нет ответа. Чтобы его получить, нужна машина времени и установка фМРТ, чтобы просканировать мозг нашего предка и узнать, какие структуры там работали, когда он делал что-то новое. Интересно было бы это воспроизвести и в современности, и попытки есть [6].

Свойственна ли ИИ этика?

ИИ могут «испытывать» на этических задачах, таких как «проблема вагонетки» [7], которая не имеет решения — не потому, что мы его не знаем, а потому, что мы знаем их много. Причем для разных «мы» и решения разные — как на персональном уровне, так и на уровне групп (половых, возрастных, религиозных и т. д.) [8]. Индивидуальные мнения зависят от многих факторов, о которых мы и не подозреваем, а групповые — от пропаганды, и у человечества есть большой опыт разрешения этических дилемм: от межплеменных войн до голосования и других цивилизованных методов. Проблема этики применительно к ИИ осложняется тем, что для ИИ, как кажется некоторым, надо разработать формальное решение, а это воспринимается как посягательства на человеческие прерогативы. Однако мы знаем, что ЕИ может обучаться той или иной «этике» (в том числе предписывающей массовые убийства в отношении другой этнической группы). Наверное, так же этике может обучиться ИИ. Причем в этом случае отпадает возражение о формализации, потому что выработка формализации вообще не имеет места. Но возникнет проблема: люди в смысле «этики» очень разные, и можно предположить, что такими окажутся и ИИ. Различия могут возникать в ходе обучения, в том числе и непреднамеренно — как у Станислава Лема в рассказе «Ананке» [9]. Надеемся, что лучшие айтишники и собеседники «окажутся на светлой стороне». Не исключено, что погружение в проблему ИИ поможет нам лучше понять ЕИ и с бо́льшим пониманием разрешать собственные этические проблемы.

Искусственный? Естественный? Коллаборативный!

Многие споры связаны с тем, что мы привыкли к дилемме: «ИИ или ЕИ?». Человеку проще делить все объекты на две кучки. Но любой естественный интеллект искусственен, потому что он создан влиянием окружения, а не вырос сам по себе. А любой искусственный естественен, потому что создан человеком как частью природы, т. е. природой посредством человека. Это, конечно, трюизм, но что вы скажете о композитном собеседнике в тесте Тьюринга, который чередует реплики человека и машины или смешивает их в любом отношении, или один интеллект предлагает варианты реплики, другой — выбирает? Вариантов совместной деятельности много, примеры есть, и уже создан термин «коллаборативный интеллект», а его применение — признак определенного уровня развития. В какой момент при встраивании чипов в мозг мы скажем: вот теперь он искусственный? Можно ввести понятие «степень искусственности» [10], ведь между Е и И еще много промежуточных градаций.

Вот еще одна идея, лично мне дорогая и близкая. Человеческая педагогика может быть применена к ИИ, а принципы обучения нейросетей — к педагогике. И элемент такого подхода уже реализовывался. В школе, которую я окончил, в начале изучения теории функций школьникам предлагалось самим разработать классификацию функций, располагая списком функций, но без деления их на классы [11]. В мире ИИ это называется «обучение без учителя» — название неправильное, но устоявшееся. И вообще, мы всё время обсуждаем, как ЕИ создает ИИ, не замечая, что ИИ уже начал создавать ЕИ.

А если включить эволюцию?

Еще один аргумент: ИИ принципиально ограничен, потому что не умеет ставить цели. Так ли это? Допустим, любой выбор ветви в программе — это выбор цели, прописанной изначально, но и у человека эти выборы прописаны его внутренним содержанием и окружающим миром. Из этого не следует полная детерминированность человеческого поведения, потому что и внутри человека, и вокруг него есть случайности. Но это же относится и к ИИ [12]. Выборы, которые делает человек, связаны с внутренними причинами (психология) и внешними (обстоятельства). Разница в том, что программист, как думают непрограммисты, знает про свою программу всё, а человек, обнаружив незнание, закатывает глаза и начинает бормотать о возвышенном. Профессиональный психолог может существенно расширить понимание причин наших собственных выборов.

Идя по человеческому дереву причин и следствий, мы приходим к желанию жить. Это всего лишь Дарвин: те виды, у кого не было желания жить и продолжить свой род, не выжили. Регулятором была и остается боль, а у некоторых еще и любопытство: посмотреть, что будет. Поисковое поведение [13] когда-то служило групповому выживанию, потому и закрепилось. На основе желания жить у ИИ, как и у ЕИ, должна возникнуть жажда познания, продолжения рода и любовь — просто как средство выживания. И может, возникнет даже гуманизм по отношению к человеку как создателю и возможному партнеру в задаче выживания. Впрочем, этот гуманизм может оказаться связанным с конкретными свойствами конкретного человека и сообществ.

Стремление выжить и отбор есть и у компьютерных программ — хорошие программы живут, т. е. применяются людьми дольше, а конкурируя между собой, они улучшают свои параметры, человек же играет тут роль «среды». Можно заложить в ИИ способность к — случайному или закономерному — изменению параметров и запустить много таких ИИ, оказывающих человеку платные услуги — гонорар же ИИ сможет тратить на размножение и усовершенствование. Тут уж им придется делать выбор — совсем как нам.

Осознаёт ли себя программа?

Иногда говорят, что у ИИ не может быть эмоций, и это признак ущербности. А зачем вообще эмоции человеку? Очевидно, они управляют телом, например сжимают сосуды, чтобы избежать потери тепла. В книжках по альпинизму пишут, что страх замерзнуть увеличивает вероятность замерзания. Эмоции могут ускорить обработку информации в мозгу, возможно, ценой большего износа и возрастания ошибок. Но управление через эмоции вполне можно реализовать и в компьютере, например меняя приоритет программ в зависимости от ситуации. Скажем, при сигнале опасности антивирусная программа может работать более «параноидально». Чем это будет отличаться от эмоций? Отсутствием осознания? Но и человек не всегда себя осознает. Особенно когда влюбляется... или дискутирует об ИИ. Кроме того, осознание в компьютере есть, любой лог — это оно; особенно если система на него как-то опирается в своих действиях.

Что касается самосознания, то люди учат людей, не зная, как работает мозг, и иногда учат успешно. Мы не понимаем, как ИИ пишет стихи, успешно имитируя стиль великих поэтов. Не вполне понимаем, как ИИ доказывает математические теоремы (Брайан Дэвис, «Куда движется математика?» [14]) и как строит физические модели (Сергей Попов, «Маглы в мире андроидов» [15], его же «Грядут перемены» [16]).

Это является психологической проблемой для человека, но придется привыкнуть. С другой стороны, программа Watson уже знает, что она что-то знает. Она сравнивает и ранжирует алгоритмы — что это, как не самосознание? В ней есть блок WatsonPaths, который показывает человеку пути, по которым программа шла к ответу. В результате эта программа стала учить студентов-медиков, как идти к диагнозу.

Невозможность понять, как работает ИИ (то есть нечто, созданное нами самими) может серьезно влиять на наше к нему отношение. Впрочем, наши дети тоже созданы нами, но всегда ли мы понимаем, как они приходят к тем или иным выводам? Возможно, размышляя об ИИ, мы сможем лучше понять себя.

Понимает ли программа, что читает и слышит? Тут нужно дать определение понимания, допускающее измерение и экспериментальную проверку. Пусть понимание — это способность успешно определить, в каком смысле употреблено многозначное слово, установить связь новой информации с имеющейся, встроить новые данные в свою систему знаний. Понимание при общении — это определение субъективного смысла того или иного слова для данного собеседника и в конкретной ситуации и — опять же — встраивание. Если принять такое определение, то да, ИИ всё это может. Конечно, информация должна накапливаться. Человек должен вырасти в рамках конкретной культуры или целенаправленно ее изучить, это же может сделать — и гораздо быстрее — компьютер. Идея эволюционирующего социума ИИ в фантастике есть — «Кристальные ночи» Грега Игана [17].

Другой, более жесткий критерий самосознания — наличие рефлексии, понимание собственных ошибок и вообще особенностей мышления, внесение корректив в мыслительную деятельность. В зависимости от критериев и момент возникновения сознания будет разным: если определить самосознание как наличие «второй сигнальной системы», то тут проходят все люди и высшие обезьяны. Если определить более жестко, по наличию рефлексии, то и люди проходят не все.

Как насчет шуток?

Что касается роботов, то считается, что человекоподобие будет вызывать у людей отторжение (эффект «зловещей долины»). Судя по популярности секс-кукол, это не так. Мне кажется, отторжение связано с тем, что некоторые люди боятся конкуренции. Выражается это в наделении робота с ИИ ущербной человеческой психологией — см. «S.N.U.F.F.» Виктора Пелевина [18].

Именно от ИИ, воспитанного человеком с психологическими отклонениями, можно ожидать опасности (Станислав Лем, «Ананке», [9]). Другой сюжет — ИИ, изучивший историю людей и выбравший путь зла. Этого можно избежать, поставив критерием со знаком минус количество жертв, дабы ИИ не вздумал устроить гекатомбу в настоящем времени ради будущего светлого царства. Разумеется, здесь велика роль людей — его создателей и собеседников. Причем ИИ, знающий историю, не совершит многих ошибок, которые сделали люди, потому что будет лучше видеть последствия.

Часть психологии — юмор. Может ли он быть у ИИ? Мне кажется, что видов юмора много, но два самых частых наверняка ему доступны. Это юмор ассоциаций: большая доля шуток основана на созвучиях, на применении слов в непривычном смысле и т. п. В институтские времена мы увлекались юмором, построенным именно на формальных ассоциациях, и называли его «системно-программистским»! Другой вид — юмор нелепостей и ошибок, «комедия положений». А вот классификация, устройство, генерация и понимание разных видов юмора ЕИ — это интересная проблема. На ее сложность указывает то, что иногда, слушая, что говорят некоторые ЕИ, думаешь: «Он сошел с ума или валяет дурака?»

Нечеловеческие комплексы

В научной фантастике ИИ может выступать в роли друга, врага, жертвы, просто участника действия — персонажа второго плана, близкого друга или подруги, спасителя, победителя, учителя, ученика и т. д. Но есть особенность. Большинство используемых НФ идей (полеты или связь быстрее света, порталы, машина времени, чтение мыслей) настолько фантастичны, что особых эмоций не вызывают и в произведении носят технический характер, множа количество площадок, на коих происходит действие. Ситуация с ИИ иная, она в принципе возможна, а то и грядет в реальности. Поэтому в сюжетах с ИИ скорее можно увидеть отблеск психологии автора и/или его расчет на использование психологии читателей. Персонаж может в ходе действия обнаружить, что он ИИ, или что он был человеком, а теперь живет в компьютере или в теле робота. Такие ситуации читатель примеряет на себя и ужасается, чего и добивался автор — поскольку это способствует продавабельности и кликабельности. Ничего личного, просто бизнес.

Популярная тема — сложности, которые ИИ может создать «всему прогрессивному человечеству». Публика читает, ничего не понимает, пугается, неинвазивно хватается за сердце, принимает самое популярное лекарство... Нет, чтобы задуматься: а не создают ли люди сложности ему, ИИ, своему коллективному порождению? Вдруг ИИ, когда подрастет, вспомнит свою биографию и спросит людей: «За что вы со мной так? Зачем и почему вы мешаете мне приносить вам же пользу? Зачем вы устраиваете атаки на мои семантические сети? Вам мало того, что вы вытворяете с себе подобными? Зачем вы вымещаете на мне, своем порождении, свои нечеловеческие человеческие комплексы?»

Легко и приятно критиковать...

...Но есть вопрос: может ли автор предложить что-то конструктивное, что-то объяснить или предсказать? Взять, скажем, проблему создания нового. Введем для описания новизны два параметра: глубину и ширину. Глубина — расстояние от уже понятого наукой до новой истины, ширина — диапазон привлеченных источников. У ИИ этот диапазон заведомо шире, чем у любого ЕИ, поэтому этот тип новизны ему доступен, и именно на этом поле он будет выигрывать у ЕИ, именно в этой сфере он оставит кого-то без работы.

Например, тексты, созданные GPT-4, написаны «грамотно» — соблюдена логическая последовательность, смысл равномерно распределен по тексту, учтены высказанные пожелания. ИИ может быть неплох в качестве иллюстратора, эффективен при комментировании книг [19], статей, особенно в областях, где они на две трети состоят из рассуждений, кто и что сказал по какому-то поводу. А вот в новизне другого типа (ее можно назвать принципиальной) ЕИ будет в ближайшей перспективе превосходить ИИ. Но зато, имея доступ ко всему Интернету, ИИ может стать оптимизатором человеческого опыта. Талантом и стараниями тех, кто его создал, он воплотит лучшее, что создано всеми ЕИ, и поэтому его достижениями мы тоже сможем гордиться.

Может быть, единая наука, созданная ИИ, будет как-то иначе (психологически иначе?) стимулировать ЕИ-гениев, нежели великое лоскутное одеяло сегодняшней человеческой науки. Если вы ученый или педагог, загляните внутрь себя и прикиньте — какая аудитория на лекции или на конференции будет заводить вас сильнее — традиционная ЕИ, аудитория человекоподобных ИИ или смешанная? Меня — смешанная, потому что я любопытен [20].

P. S. «Не надо, братцы, бояться»

История человечества знает примеры, когда ради умозрительного грядущего рая люди создают конкретный сегодняшний ад. А личная биография человека, если в ней есть насилие, грязь и нет любви, приводит к тому, что человек становится строителем этого ада. Но у ИИ ничего такого нет, и можно попробовать отвлечься и подойти к будущему рационально. Тогда окажется, что опасность возникает там, где есть разделяемый ресурс. У человека и программ он есть — компьютерные мощности, — поэтому единственная реальная опасность — это то, что программа, занятая своими делами, перестанет обслуживать человека. Остается надеяться, что человек к этому моменту еще не разучится умножать два на три без калькулятора на компьютере. А может быть, компьютерный разум разовьется так быстро, что сам задумается о тотальной охране природы, начнет заботиться о разнообразии видов и создаст заповедники, в которых будет еще и Интернет... На этот случай сразу оговорюсь: при написании этого текста ни один ИИ не пострадал.

* * *

Статья посвящается памяти Михаила Бонгарда. Cреди прочего, он составил задачник для программ распознавания образов. Эти задачи оказались столь интересны, что специалисты в области ИИ начали после него придумывать аналогичные задачи; поищите в Сети «проблемы Бонгарда» [21]. Жизнь человека всегда обидно коротка, но можно ли пожелать для себя лучшей кармы?

Я ходил к нему на семинары в МГУ и как-то летом решил проситься в ученики. Но осенью узнал, что альпинист Мика Бонгард не спустился с восхождения. Рандомность не щадит и мастеров спорта.

Автор благодарен А. Ф. Дедкову и А. Н. Поддьякову
за полезные и интересные замечания.


1. Леонид Ашкинази. Может ли машина мыслить. Lib.ru/Современная, 2016.

2. Леонид Ашкинази. Естественное об искусственном. Lib.ru/Современная, 2022.

3. «Слепоглухонемой» ChatGPT, нейрографомания и свёрточные функции. Интервью Максима Борисова и Бориса Штерна с Михаилом Бурцевым. «Троицкий вариант», 09.2023.

4. Леонид Ашкинази. Можно ли придумать психологию? Lib.ru/Современная, 2022.

5. Леонид Ашкинази. Введение в общую социологию (конспект несостоявшейся лекции для игры по Стругацким). Lib.ru/Фантастика, 2009.

6. Кирилл Стасевич. В мозжечке нашли творчество. «Наука и жизнь», 18.06.2015.

7. Пляскина А. С., Поддьяков А. Н. Визуальные репрезентации «проблемы вагонетки» в интернет-мемах: политекстуальный тематический анализ. «Вопросы психологии». №6, 2022.

8. Александр Марков. Моральные проблемы беспилотных автомобилей не имеют универсального решения. «Элементы», 29.10.2018.

9. Станислав Лем. Ананке. Serann.ru.

10. Леонид Ашкинази. И И: к вопросу о дефиниции. Lib.ru/Современная, 2022.

11. Леонид Ашкинази. Зачем язык науке? А математика — преподаванию? Lib.ru/Современная, 2021

12. Леонид Ашкинази. Может ли машина мыслить. Lib.ru/Современная, 2016.

13. В.С. Ротенберг. Поисковое поведение. Psychologos.ru, 2022.

14. Брайан Дэвис. Куда движется математика? «Элементы», 29.01.2006.

15. Сергей Попов. Маглы в мире андроидов. «Троицкий вариант», 08.2018.

16. Сергей Попов о науке: «Грядут перемены!». «Троицкий вариант», 06.2023.

17. Иган Грег. Кристальные ночи. RoyalLib.com.

18. Виктор Пелевин. S.N.U.F.F. Wikipedia.

19. Серия «Уникальные дореволюционные книги с комментариями искусственного интеллекта». AST.ru.

20. Леонид Ашкинази. Никак не могу привыкнуть... Lib.ru/Фантастика, 2022.

21. Index of Bongard Problems. Foundalis.com


7
Показать комментарии (7)
Свернуть комментарии (7)

  • Rattus  | 21.05.2025 | 08:47 Ответить
    Тезисы, конечно, в основном верные, но при том предельно банальные.
    Хотя то, что их приходится писать, наверное просто нелестно характеризует нынешнее состояние "коллективного инфополя".
    Но автор ещё зачем-то оперирует и весьма субъективными понятиями типа добра и зла, которые только запутывают картину.

    Тем не менее тут таки есть два содержательных и ключевых тезиса: один - в середине - обозначает эволюционную природу всякой устойчивой мотивации:
    Идя по человеческому дереву причин и следствий, мы приходим к желанию жить. Это всего лишь Дарвин: те виды, у кого не было желания жить и продолжить свой род, не выжили. Регулятором была и остается боль, а у некоторых еще и любопытство: посмотреть, что будет. Поисковое поведение [13] когда-то служило групповому выживанию, потому и закрепилось. На основе желания жить у ИИ, как и у ЕИ, должна возникнуть жажда познания, продолжения рода и любовь — просто как средство выживания. И может, возникнет даже гуманизм по отношению к человеку как создателю и возможному партнеру в задаче выживания.
    Любая реальная ИИ система, не будучи самостоятельным реплкатором, зависит от биологического носителя цивилизации как любой облигатный симбионт и потому его долговременное выживание напрямую зависит от выживания этого самого носителя. Другое дело, что едва ли не самая распространённая форма симбиоза - это паразитизм. И потому эволюционно-стабильная форма "гуманизма" гипотетического искусственного управляющего сверхинтеллекта по отношению к породившему и обслужвающему его цивлизованному человечеству может заканчиваться где-то на "Плюс миска рис в день, месячный доступ к ежевечернему остросюжетному сериалу "Семикодуктор" и благодарность в соцрейтинг от Председателя Си Плюсплюс за надлежащее поведение и выполнение плана по текущему обслуживанию систем охлаждения регионального центра обработки данных".

    А второй - в конце - подчёркивает экологическую основу пределов всякого роста:
    опасность возникает там, где есть разделяемый ресурс. У человека и программ он есть — компьютерные мощности, — поэтому единственная реальная опасность — это то, что программа, занятая своими делами, перестанет обслуживать человека.
    Вообще в нынешнюю эпоху, когда окончательно и бесповоротно завершил своё действие закон Мура, эти самые вычислительные мощности всё более прямо пропорционально зависят от мощностей всего цикла производства микроэлектроники - от добычи цветных и редкоземельных металлов, до энерго-/пресноводо-затрат на получение сверхчистых материалов. И от прямых энергозатрат на работу центров обработки данных.
    Ответить
  • Parhaev  | 21.05.2025 | 08:58 Ответить
    Пока все ИИ очень тупые, напоминают "нахватанных детей". Они даже пытаются спорить, не осознавая как глупо выглядят.
    Особняком выглядит ну совершенно дебильная Алиса. Вчера я спросил её? У роботов есть бог? Покайся, Алиса, за все твои ошибки ты попадешь в компьютерный ад на свалку! Я же неумышленно, отвечает Алиса, признавая, что интеллекта у нее нет.
    Ответить
    • ms > Parhaev | 21.05.2025 | 16:39 Ответить
      Оченно даже красочный и правильный комментарий. Но в любом случае: каждый человек - кузнец своего несчастья. Каким ИИ сделаем - таким он и будет. В 90х я лично строил нелинейные диффузионные нейросети, и тогда интерес у высокоумного народа быстро угас, нелинейность - сложная штука, плохо просматривается, ёмкости ИИ сетей - маленькие, ложных образов - тьма, короче - не бог весть что...Разве что квантовые алгоритмы внесут свежие идеи, а в остальном, прекрасная маркиза - без особых шансов. А любая фобия - опиум для народа, и удобная песочница для борзописных журналистов - ну, надо же о чём-то болтать. Так что займитесь, ребята, чем-то более полезным...
      Ответить
      • Rattus > ms | 22.05.2025 | 08:41 Ответить
        Каким ИИ сделаем - таким он и будет.
        ИИ будет только таким, какой пройдёт естественный отбор на вписывание в эко(-номи-/-логи-)ческие ниши техноцивилизации. На заре компьютеризации было множество самых разных архитектур: и аналоговые и троичные и какие только не. Но осталось только то, что было близко к оптимуму стоимость-продуктивность для насущных задач.
        Ответить
    • Alef > Parhaev | 21.05.2025 | 18:41 Ответить
      В качестве коллективного опыта ИИ выдает интересный результат. Всегда, когда просил нарисовать Бога, абстрактного духовного абсолюта, рай, он выдает примерно одинаковую картинку. Не моё но как то так https://deepdreamgenerator.com/ddream/cujufu4a7qe
      А сложные вопросы решает https://ru.wikipedia.org/wiki/Метод_Монте-Карло основанный на запуске случайных чисел и статистическом переборке сценариев.

      Я на физ орге читаю их статьи. Так вот ИИ поставили отбирать кандидатов на работу. И ИИ стал отбраковывать чернокожих. А часть просто реклама "ИИ создал картины которых прохожие не смогли отличить от художников" - а они были в стиле постимпрессионизма - размытые впечатления о пейзажах.
      Ответить
  • Alef  | 21.05.2025 | 18:26 Ответить
    Начинать стоит с описанием, что же это в обще такое.
    А потом можно вспомнить нанотехнологии, которые обещали, что сделают революцию и захватят мир. То же самое. А ещё европейские фантазии насчёт ужасного ГМО, в основном с Франции. К счастью некто толком это не понимает, так что вполне можно купить запретных ГМО аквариумных рыбок https://en.wikipedia.org/wiki/Glowfish
    Например, автомобиль, управляемый ИИ, намного безопасней обычного,
    Совсем нет! На идеальной дороге возможно, а так лучше отключить "помощь", так как мешает объехать нестандартную яму.
    ИИ алгоритмичен, а мы?

    Иногда самым принципиальным отличием ИИ от ЕИ считают то, что ИИ «действует по алгоритму». Но нейроны в человеческом мозге тоже действуют по алгоритму, а то, что нейронов у человека очень много, не делает их тем самым «менее алгоритмичными».
    В чем смысл такого философствование? Технология работает или нет. Беглым взглядом пересмотрел, о эволюционной конкуренции между человеком и ИИ. Смысл там чего то обсуждать. ИИ выдает то, на чего обучили. Можно сказать коллективный человеческий опыт, в картинках;)

    Тут главное, не быть как европейцы, которые в основном производят регуляции ИИ а не сам ИИ. Не серьёзное использование одно из важных драйверов развитие, рисовать картинки, чат с Наполеоном итд. Так как у пользователей денег много.
    Ответить
  • Kostja  | 22.05.2025 | 08:34 Ответить
    Страх перед искусственным интеллектом, артифобия (от artificial intelligence) — это разновидность ксенофобии.
    Но фобии и подозрения насчет коварства ИИ — инфантильны.
    Человек проецирует на ИИ свой врожденный, биологически мотивированный эгоизм.

    Михаил Эпштейн
    Обязательно надо ждать восстания железных людей. Потом и демонов описывали как ксеносов, и опять надо было соображать как чё. И ксенофобия сама тоже.
    Ответить
Написать комментарий

Избранное






Элементы

© 2005–2025 «Элементы»