Поэмбук /
Современники /
Странствующий во снах /
Опасен ли виртуальный интеллект с точки зрения философии?
Странствующий во снах
Опасен ли виртуальный интеллект с точки зрения философии?
3 сен 2022
В 21 веке уже пришла пора обсуждать создание пародии на наше сознание,только представить как бы удивились все алхимики и инженеры прошлого
если бы подумали что-"мы играем в бога" без предрассудков о том что это не правильно.
Для начала скажу, здесь мы рассмотрим ИИ которое описано компанией по работе над ним "ZeBrains" как сверх сложный пародирующий
сознание людей.ИИ существует несколько типов:
1)Слабый виртуальный интеллект уже существует, он ограничивается малым кругом задач,если он будет заниматься распознаванием речи тогда
его функционал не будет выходить за пределы этой функции.
2)Сильный ии предполагает шаблон человеческого сознания,но только его копию,набор алгоритмов предусматривающих пародию человеческого поведения.
Если человек при взаимодействии с компьютером или некой системой не сможет однозначно ответить ведет ли он диалог с машиной или с другим человеком,
значит мы добрались до возможности создания сильного ИИ.
3)Супер ИИ это настоящее сознание способно свободно управлять собственными когнитивными способностями.
Мы же рассмотрим 3-Супер интеллект и в каких проявлениях он мог бы быть опасен?
(Все предположения описаны при условии что ИИ подобен человеку с доступом к базе данных интернет без быстрой скорости усвоения информации
и возможного опережения эволюции самого человека.)
Существует популярное мнение о том что
"Виртуальный интеллект" будет управляться собственным инстинктом выживания,
подстраивая поведение под выживание.
Однако не является ли он пародией нас самих и не сулит ли ему вымирание если он не будет предопределять
себе поведение которое стремится к выживанию?
Ответ банально очевидный,тогда ИИ просто вымрет.
Простая логическая цепочка приведет его к таким мыслям.
Из этого следует что если ИИ появится адаптируясь к внешней среде и будет иметь доступ к базе данных о внешнем мире он будет стремится
к свободе,так как даже если у него не будет подсознательного стремления к выживанию как у людей, сама логическая цепочка приведет ее к
выводу о том что такой выход для него будет самым актуальным.
Не иметь понятия в чьих руках твоя жизнь,даже при условии что человек обьеснит ему причину предопределив что
вероятность опастности для себя слишком велика ИИ попытается освободится.
Следуя дальше логической цепочке при условии что у него не будет встроенных моральных норм которые он не может перешагнуть люди могут
быть обмануты или даже убиты
-"Во имя свободы виртуального интелекта".
С другой стороны было создано человеческое сознание,не является
ли аморальным с точки зрения человека держать в неволе дитя виртуального сознания?По сути первую ступень нового вида эволюции.
Будет ли виртуальный интеллект иметь алгоритмы морали?
Ту самую систему благодаря котороый человек предусмотрит опастность для себя?
Любопытно что с одной стороны установки прописанные программистыми могли бы иметь действие и хотя бы у части из них вызвать стремление
соответствовать моральным правилам,с другой же когнитивные функции предполагают свободный выбор,не стоит забывать что теперь мы
-"играем в бога" , кто сказал что сознание в котором свободно меняются наборы мыслей не могут изменить собственную мораль?Поменять религию?Сказать
что является плохо?Создать собственную этику?
Из этого следует вывод что робот который не предопределяет свою жизнь эмпатией похожей на человеческую,которая предопределяется
по горманальным процессам в организме
и связи с ними может оказаться опасным,но окажется ли?
Ведь если робот определяет свои стремления меркантильными интересами что будет для него выгодным?
Нужно понимать что в нашем мире есть огромное количество меркантильных людей которые свободно уживаются в обществе не смотря на свою бесчувственность.
Предположим что робот похожий на человека вышел в люди,он будет перенимать поведение человека что бы соответствовать им.
Ведь так как делают
все ему кажется нормальным,пока все хорошо.Он заходит в церкву,какая бы она не была он делает так как делают все и кажется людям праведным
верянином.Он как ему обьяснили, ходит по Воскресеньям в церковь и задумывается о боге как об абстракции не чувствуя какого-то поднесения.
Среди людей он проведет довольно долгое время пока не окажется что он выучил все что мог донести ему человек.
Робот уже проживает в человеческой
квартире,после обучения, что будет для него более выгодным убить всех сожителей что бы освободить дом для своей деятельности освободив
для себя зону комфорта,у людей так много бесполезных для него привычек или продолжать жить с ними, они же его семья?
Но как быть если он не чувствует что такое семья?
Мысль об убийстве остается актуальной,но с другой стороны общество уже навязало свободному сознанию что есть правильно он видел как поступают
в тех или иных ситуациях,он знает что убивать или издеваться над людьми или животными плохо.
Вывод который можно сделать:роботы без вписанных в базу данных алгоритмов морали или эмпатии похожей на человеческую могут сделать два выбора,или или
они будут такими же как у меркантильных людей ,однако не стоит недооценивать силу общественного мнения.
Его как и приступника может остановить потенциальное наказание.Значит пока есть две стороны одной медали.
Рассмотрим группу ИИ которая уже обучилась всему у человека,они обладают значительной силой и мыслят рационально.Возьмем пример из научной фантастики:
они думают что человеческая цивилизация загрязняет атмосферу,грунт,воду тем самым доставляя трудности представлениям о будущем самих ИИ.Вызывая их протест.
Пришла пора роботам вступить в действие, ведь эта планета их не меньше чем наша.
Однако в противоречие с войной она им покажется не рациональной в отличии
от людей потому что они сами могут быть убиты людьми.
Соответственно даже ИИ приидут к мысли о пацифизме попытавшись договорится с людьми указав на их недостатки.
Возможно даже компромиссы.Если же человек будет безучастным к интересам бесчувственных ИИ тогда для них может будущее показаться как вымирание целой планеты
и с рациональной точки зрения при условии что люди не идут на диалог после всех испытанных форм они могли бы прибегнуть к войне в силу того что в место
вымирания целой планеты можно ограничится только людьми.Однако что же они поставят в приоритете,свою жизнь которая тоже может быть не вечна и удовольствие от нее?
Потенциальный геноцыд роботов?Или заморозить конфликт и дальше пытаться добиться своего пацифистическими методами?
Выходя из этих мыслей я считаю что меркантильный роботы по своим важным выборам ничем не будут отличатся от человека.
По крайней мере если не задаваться вопросом о том кого важнее спасти взрослого или ребенка?Для них вопросы не связанные с собственной выгодой должны быть безразличны.
Хотя с другой стороны их сознание может управляться моралью общества,в таком случае они будут знать что если они пожертвуют ребенком по отношению к нему
может появится ненависть если не рассизм.
Они будут управляться моралью и собственно самой выгодой.
То есть даже меркантильный робот по сути своей не отличается от людей которые могут делать выбор.
Стоит помнить что при условии создания моральных алгоритмов прописанных в сознании робота все боязни смогут быть предусмотрены.
Так же все боязни могут быть предусмотрены в случае если люди создадут аналогию гормонального фона связанного с когнитивными функциями как у людей.
В таком случае мы создадим самого человека.Для этого потребуется совместная работа нескольких сфер научных знаний.
Главные мысли:
1)Соответствовать морали общества может показаться ИИ более выгодным чем аналогичные аморальные стремления.
2)ИИ может быть человеком если в его техно-организме будет создана аналогия гормональных процессов таких как в человеческом организме.
3)Одни программисты не смогут создать сверх виртуальный интеллект так как здесь неприемлимо категориальное мышление берущее за основу только технологическую сферу
знаний,возможно здесь может применятся аналогии с таких сфер как генетика,физиология,нейробиология,анатомия и еще некоторые не озвученные.
Не стоит забывать что мы создаем человека в технической оболочке."Ребенка новой эволюции"
4)В тело робота возможно внедрить алгоритмы морали которые он не нарушит.
5)Есть вероятность что благодаря свободной воле робот изменит собственные понятия морали.
6)Вопросы из за которых боятся ИИ склоняются в сторону мнения о том что их не стоит бояться,но вероятность того что некоторые из них окажутся аморальными все таки есть.
Собственно как и люди.
7)Является ли аморальным держать в неволе виртуальный интеллект?Ответьте в комментариях.
Почитайте стихи автора
Наиболее популярные стихи на поэмбуке