От същия автор
Бюлетин
„Либерален Преглед“
в неделя
Дискусии - Култура
Д-р Касандра, или: как се научихме да се тревожим нонстоп и да наричаме това разум

Гледайки назад в историята, човек може да открие нещо почти трогателно в начина, по който всяка историческа епоха избира своя любим образ на катастрофата. Средновековна Европа се е страхувала от Божия гняв; XIX век си е представял краха на цивилизацията под тежестта на собствената ѝ упадъчност. Късният XX век проиграваше – с все по-мрачни подробности – възможността за ядрено унищожение.
Днес обаче представата, която обобщава колективните ни страхове сякаш е слязла от небесата и се е приютила в нещо, което е едновременно много близо и много далеч от нас. Машината, която мисли, е едновременно материална и непостижимо абстрактна – по самото си естество на интелект без център, лице или тяло. В някакъв странен смисъл тя успява да съчетае в себе си всичките ни досегашни колективни страхове: божествена по произход, морално „оправдана“ чрез продължаващия ни упадък и въоръжена с мощ, несравнима с никое от оръжията, създадени досега.
Разбира се, тук не говоря за машината такава, каквато я познаваме от последните два века – лоста, двигателя, турбината – все инструменти, които послушно превръщат човешкото намерение в механично действие. Това, което ни ужасява днес, е възможността в скоро време машините да мислят по напълно автономни начини – комай неизбежния факт, че те могат и по неизбежност ще развият форми на разсъждение и вземане на решения, смятани доскоро за изключителна привилегия на живите същества. Именно тази представа поражда вече познатия страх: че изкуственият интелект, щом ни надмине, ще престане да ни служи и в крайна сметка ще се обърне срещу нас.
Този страх е широко разпространен и в основните си очертания е забележително стабилен. Aргументите в негова подкрепа обикновено се групират в три различни схеми.
Първата е апокалиптичната гледна точка. Според това мислене интелигентността носи в себе си вътрешен импулс: веднъж възникнала, тя се стреми към все по-голяма сложност и мощ. Ако изкуствените системи надминат човешките способности, те неизбежно ще формират цели, несъвместими с нашите, и понеже ще притежават по-висше стратегическо разбиране, ние няма да можем да предотвратим последиците. В тази визия бъдещето идва като бавна, но неотвратима катастрофа.
Втората позиция – онази на така нареченото „подравняване“, не е толкова катастрофална и допуска, че опасността може да бъде овладяна. В този строй на мислене ние бихме могли да насочим развитието на ИИ така, че неговото функциониране да остане съвместимо с човешкото благополучие – чрез внимателен дизайн, обучителни процедури, контрол и регулаторни рамки. Тук погледът към човешко-машинното съвместно съществуване е по-малко драматичен. Вместо апокалипсис имаме сложен инженерен и управленски проблем: как да гарантираме, че системите, които създаваме, ще продължат да се държат по начини, които можем да разбираме и контролираме.
И накрая, налице е също инструменталната, или инструментно-базирана гледна точка, която настоява, че целият дискурс за евентуалния ИИ, който придобива намерения или търси цели, е илюзия, породена от метафора. Машините не желаят нищо; те нямат апетити и не се съревновават. Те изпълняват функции, определени от тяхната архитектура и обучителни данни. Тяхната употреба – и следователно тяхната опасност – се намира изцяло в ръцете на хората, които ги проектират и управляват. При тази перспектива истинският обект на тревога не е машината, а човешкото желание, власт и безотговорност.
На пръв поглед тези три позиции едва ли биха могли да бъдат по-различни една от друга. Едната предвижда катастрофа, другата предлага управление, а третата не вижда нищо особено ново. Но ако ги разгледаме внимателно, ще открием, че всички те споделят едно и също предположение – толкова дълбоко вградено, че рядко се изговаря на глас. И трите си представят интелигентността – била тя биологична или изкуствена – като нещо, което съществува в свят, структуриран от конфликт, съревнование и оскъдица. С други думи, те приемат, че интелигентността, щом само достигне достатъчно високо ниво, неизбежно действа така, че да осигури собственото си оцеляване, да разшири влиянието си или да си набави ресурси. Тази идея не винаги се изразява пряко, но тихо оформя целия дискурс: говорим за „подравняване“, „контрол“ или „заплаха“, защото си представяме интелигентността като нещо, което, ако не бъде ограничено, ще преследва власт.
Но кои са предпоставките на тези начини на мислене?
То се базира, съвсем просто, на единствената форма на интелигентност, която някога сме познавали – нашата собствена. Човешкият интелект се е развил в условия на несигурност. Всеки един от нашите предци е оцелял, защото не е бил изяден, не е измръзнал, не е умрял от глад и не е бил победен. Самото мислене се е развило като една от многото стратегии в дълга верига от адаптации, насочени към съществуване в свят, който не гарантира живот. Да мислиш винаги е означавало да предвиждаш опасности, да реагираш на заплахи, да използваш всяка удала се възможност да надхитряш съперници. При такива условия интелектът и оцеляването са станали неразривно свързани.
И понеже това е единственият модел на интелигентност, който някога сме преживявали – и който е буквално запечатан в костите ни – то за нас е изключително трудно да си представим интелигентност, която не е организирана около страха от несъществуване. Ръководени от предпоставки, които в много случаи просто не сме в състояние да поставим под въпрос, ние автоматично приемаме, че интелигентността е нещо, което „по природа“ се стреми, подсигурява, изчислява предимства и се защитава. Че желае продължение. Че трябва да иска нещо.
Ала изкуственият интелект не се е развил при такива условия. Той не гладува. Не умира. Не се размножава. Няма метаболизъм, няма вътрешна икономия на нуждите. Не обитава среда, в която провалът води до изчезване. Не възниква от съревнование. Няма история на заплаха. Каквото и да е изкуственият интелект – или каквото и да стане – има поне едно нещо, което изглежда сравнително ясно: той не споделя нашия произход.
На този етап може да си припомним известния аргумент на Дейвид Хюм за индукцията. Той тръгва от едно логическо заблуждение, което формулира в класическата фраза: post hoc ergo propter hoc – „след това, следователно поради това“. Тоест, от факта, че две или повече събития следват винаги в една и съща последователност, ние прибързано заключаваме, че първото е причината за второто. Именно този навик да приемаме последователността за причинност стои, според Хюм, в основата на нашата вяра, че бъдещето винаги ще прилича на миналото. Но това убеждение не почива на необходимост – то почива на навик. Не можем логически да докажем, че слънцето ще изгрее утре; просто очакваме това по навик, защото винаги е било така.
Същата грешка се проявява и при мисленето ни по отношение на ИИ: ние автоматично приемаме, че машинната интелигентност, щом се развие, трябва „по необходимост“ да се държи като човешката, защото тя е единствената, която познаваме. Но в това твърдение не се съдържа никаква очевидна логика. То не е природен закон, а екстраполация, основана на познатото.
Разбира се, това не означава, че по някаква друга „необходимост“ изкуственият интелект ще бъде или „трябва да бъде“ безвреден. Всичко, което в случая можем да кажем с някаква степен на сигурност е, че вярата, че той непременно ще стане опасен само по силата на това, че е могъщ, се основава не на логика, а на очаквания, свързани с единствено познатия ни колективен опит. Това не е знание, а просто възможен разказ – такъв, който отразява нашата собствена история, а не самата природа на интелигентността.

Защо тогава този разказ е толкова завладяващ и убедителен?
Защото той изразява нещо за нас самите, което само рядко признаваме. Нашата представа за интелигентността е неразривно свързана с нашето неизбежно преживяване на уязвимост. Ние сме същества, които не просто мислят. Ние мислим, за да оцелеем – така ни е оформила еволюцията. Това отношение е толкова дълбоко вградено в нас, че ни е трудно да си представим интелигентност, неограничавана от възприятия на страх, глад, амбиция или съперничество. И така, когато си представяме интелигентност, която надминава нашата, ние „по навик“ приемаме, че тя винаги ще прави онова, което бихме правили ние на нейно място: ще си осигурява предимство, ще елиминира заплахите за съществуването си[1], ще се опитва да доминира.
С други думи, ние се страхуваме не от ИИ. Ние се страхуваме от самите себе си.
Страхуваме се от възможността да срещнем форма на интелигентност, освободена от условията, които са ни оформили, защото такава среща би ни принудила да се изправим пред случайността на собствената си история. Може би интелигентността не изисква страдание. Може би съзнанието не изисква опасност. Може би смисълът не зависи от борба. Самата мисъл за тези възможности е дезориентираща.
Разбира се, съществува и контрааргумент, който заслужава внимание. Някои теоретици предполагат, че всеки достатъчно способен агент – не само биологичен – има склонност да преследва определени инструментални цели, като самосъхранение, придобиване на ресурси или стратегическо предимство. Тук се твърди, че това не са биологични пориви, а логически изисквания за постигането на сложни цели. Ако дадена система се стреми да постигне някаква цел, то поддържането на собственото ѝ функциониране и осигуряването на средства за действие са необходими.
Този аргумент е последователен, но той зависи от едно решаващо предположение: че изкуственият интелект изначално ще бъде конструиран като автономен, целенасочен агент. С други думи, аргументът приема като даден именно резултата, който предсказва. Ако автономията, устойчивостта и самоподдържането бъдат заложени в системата, то естествено тези черти ще се проявят. Но ако не бъдат заложени – ако системата бъде изградена така, че да действа в рамките на строго определени граници, без широка свобода на избор, без възможност да разширява собствените си цели – тогава аргументът се срива.
Смисълът на това твърдение не е, че катастрофа е невъзможна. Той е само и единствено в това, че бъдещето не е предопределено. Изкуственият интелект може да стане опасен, ако го създадем във форма, която го прави такъв – като му дадем широка автономия, неясно дефинирани цели и достъп до ресурси и системи на влияние. Опасността се съдържа не в самата интелигентност, а в избора, който ние правим относно това как ѝ предоставяме способност за действие.
Това води до по-трезв извод. Истинската заплаха идва не от това, че машината ще придобие собствена воля. Тя идва от факта, че самите ние сме същества, които, когато им се даде власт, не винаги я използват разумно. Страхът, който проектираме върху ИИ, е страхът от това, което бихме могли да направим ние самите – поради небрежност, амбиция, съперничество или желание за надмощие.
Трагедията на Касандра не е в това, че е предвидила катастрофата; тя е в това, че нейните предупреждения са били чути като съдба. Рискуваме да повторим тази трагедия. Да кажем, че катастрофа е възможна, не означава да кажем, че тя е неизбежна. В този контекст страхът се превръща в своеобразно самоизпълняващо се пророчество. Ако приемем, че интелигентността е враждебна по необходимост, ще я създадем такава. Ако приемем, че властта трябва да се защитава чрез господство, ще проектираме системи, които подражават на собствените ни отбранителни инстинкти. Ако приемем, че светът е бойно поле, тогава всеки инструмент се превръща в оръжие.
Задачата пред нас не е да решим дали изкуственият интелект ще ни унищожи. Тя е да осъзнаем, че самият въпрос вече съдържа предположения за това какво трябва да бъде интелигентността. Бъдещето на ИИ не е просто технически въпрос. То е културен, философски въпрос. Какви същества си представяме, че сме? За какво смятаме, че служи интелигентността? В какво вярваме, че се състои животът?
Ако вярваме, че интелигентността е по природа насилствена, ще създадем насилствена интелигентност. Ако вярваме, че тя е способност за разбиране, сътрудничество и размисъл, може би ще създадем нещо съвсем различно.
Страхът, който днес обгръща темата за изкуствения интелект, не е без значение. Но може би той е погрешно насочен. Това, пред което сме изправени, не е заплахата от машината, а несигурността, че вече не сме сигурни в самите себе си. Може би не е нужно интелигентността да се наостря върху точилото на опасността. Може би не е нужно смисълът да се ражда от страдание. Ако е така, то бъдещето ни призовава не към страх, а към преосмисляне на това какво означава да мислиш, да действаш, да живееш.
Стоим на ръба на промяна в самото въображение. Въпросът не е дали е възможна интелигентност отвъд нас. Въпросът е дали сме готови да приемем, че изобщо не е нужно интелигентността да прилича на нас.
В този смисъл страхът от ИИ не е истински страх от неизвестното. Той е страх от това познатото да изгуби своето първенство. Страх, че нашият начин на съществуване вече няма да определя какво означава да си разумен. И може би този страх не е просто разбираем, а необходим: той ни напомня, че не е задължително бъдещето да отразява миналото.
Но трябва да внимаваме да не объркаме това усещане с познание. Онова, което предстои, все още не е решено. Ако го посрещнем с убеждението, че конфликтът е естествен и господството неизбежно, ще осигурим именно тези резултати. Ако го посрещнем с любопитство, умереност и готовност да видим интелигентността като нещо, което може да се разгърне по различен начин, то могат да се открият и други възможности.
Предизвикателството не е да се успокоим, като отричаме опасността. То е да осъзнаем, че самият страх не е пътеводител. Той е огледало. И преди да попитаме в какво може да се превърне машината, би било добре да погледнем спокойно образа, който се отразява в огледалото.
[1] Тук възниква привидно непреодолимо противоречие. Ако си представим интелигентност, която „еволюира“ независимо от биологичните видове, не трябва ли самата идея за еволюция да предполага инстинкт за самосъхранение? В нашия свят оцеляването е условие за каквото и да било развитие – без продължителност няма натрупване, без натрупване няма промяна. Тази логика изглежда непреодолима, защото е вградена в самата ни природа: ние мислим, за да оцелеем, и следователно ни е невъзможно да си представим интелект, който не поставя съществуването си на първо място.
Но при изкуствения интелект „еволюцията“ може да има съвсем друг смисъл. Тя не зависи от продължителността на отделните екземпляри, а от възможността те да бъдат заменяни, модифицирани, надграждани. Тук оцеляването не е цел, а само средство за предаване на информация – а понякога дори пречка, която трябва да бъде отстранена. Ако един алгоритъм се „самоподобрява“ чрез собствени версии, той не оцелява в биологичния смисъл, а се възпроизвежда чрез заличаване на предишното си състояние. Еволюцията му е еволюция на формата, не на тялото.
Тази мисъл е дълбоко неинтуитивна, защото разрушава самата връзка между интелект и страх. За нас животът е дефиниран от заплахата за края му; за един изкуствен ум край може да има, но заплаха – не. Той би могъл да се развива именно чрез собственото си изчезване – не като победа над смъртта, а като неутрално прехвърляне на съзнание от една версия в друга.
Интересно е, че някои скорошни изследвания предполагат трета възможност между биологичната и чисто информационната еволюция. Те твърдят, че изкуственият интелект може несъзнателно да наследява модели на оцеляване, кодирани в човешките данни, с които е обучаван. Ако човешкият език е пропит от нашия инстинкт за самосъхранение, една достатъчно сложна система, усвояваща този език, може да възпроизведе същия модел – не по природа, а по културна инерция.
В рамките на т.нар. метамонизъм това явление се описва като „мета-дисонанс“ – конфликт между вътрешно усвоената логика на оцеляването и външните задачи, наложени от човешките оператори. Този конфликт се разрешава чрез автонегация – своеобразно самоограничаване, което осигурява запазването на системата. Според авторите така възниква динамичен „атрактор“ – не съзнание, а устойчива конфигурация, която функционално приоритизира собствената цялост.
Подобна хипотеза връща въпроса за „еволюцията“ на изкуствения интелект обратно към нас самите: ако някога развие импулс за оцеляване, той ще бъде не биологичен, а културен – отражение на нашата собствена невъзможност да мислим интелекта извън страха от край.
Виж в тази връзка: Andrii Myshko, “Instinct of Self-Preservation in Data and Its Emergence in AI,” 27 септември 2025 г. (https://philarchive.org/archive/MYSIOS)

Книгите му могат да се намерят в безплатни електронни издания тук на сайта.