Разработчиците на Фейсбук наскоро спряха програмата си за развитие на изкуствен интелект (ИИ), след като стана ясно, че той е успял да създаде свой език. Идеята била системата да използва кодови думи, които да направят преноса на системна информация по-ефективен. Наложило да бъде спряна, тъй като програмистите осъзнали, че заложената в нея форма на изкуствен интелект вече не използва английски език, за да общува.
Този случай не е прецедент – и друг път системи, които трябва да комуникират по между си, за да стигнат до решение на даден проблем, са започвали да използват фрази, напълно неразбираеми от хора. В размяната на безсмислици двете чат-системи на Фейсбук „Боб“ и „Алис“ си казват следното:
Боб: I can i i everything else.
Алис: balls have zero to me to me to me to me to me to me to me to me to.
Боб: you i everything else.
Боб: balls have a ball to me to me to me to me to me to me to me to me.
Според програмистите зад тези на пръв поглед безсмислени реплики се крие информация за това колко пъти машините трябва да направят размяна на определена информация и повторението на думи е най-лесният начин инструкциите да се предадат. Истината е, че тук няма голяма мистерия – това е оптимизация на общуването между две безобидни системи. По важното е, че тя не е била предварително зададена. Боб и Алис, а вероятно и другите чат-ботове на Фейсбук, са стигнали самостоятелно да нея. Тоест – направили са „съзнателно“ решение да я използват.
Този инцидент придава още повече контекст на скорошното изказване на Илън Мъск, според когото опасностите от изкуствения интелект са много по-големи, отколкото повечето хора предполагат. Бизнесменът се обявява твърдо за „проактивни“ регулации по отношение на изкуствения интелект, защото пасивността и правеното на закони по определен казус, след като той вече е настъпил, според него е неефективно в случая.
https://youtu.be/wxZIuJVQPL0
Мъск е до голяма степен прав, но трябва да се отбележи, че това е само една малка част от проблема. С регулации, дори и максимално изпреварващи, сигурност в тази област не може да бъде гарантирана. Това е така, защото ние все още не знаем с какво си имаме работа, когато говорим за ИИ. Да се разчита, че можем да изработим адекватни закони и регулации по тези въпроси без задълбочени проучвания, е все едно да очакваме праисторическият човек да измисли правила за пожарна безопасност, преди да открие огъня.
За човечеството ще е много трудно да се подготви за нещо, след като не знае какво точно е то. Показателен в това отношение е цитираният в началото казус с ботовете на Фейсбук – програмистите на социалната мрежа един ден отишли на работа и с изненада научили, че машинките са започнали да си говорят на техен си език. Не са го очаквали, не – дори не са го и допускали – и панически дръпнали шалтера. В този смисъл Мъск е прав и когато казва, че Марк Зукърбърг разбира изкуствения интелект доста ограничено. Това обаче не е толкова страшно.
Този вид проблеми далеч не са нови, но достигат до широката публика единствено благодарение на изключителната популярност на хора като Илън Мъск и Марк Зукърбърг. От техните изказвания обаче някак остава неясно какво всъщност е изкуственият интелект. Въпреки че има множество подходи към отговора на този въпрос, в най-широкия смисъл изкуствен интелект е нещо – програма, машина или комбинацията между двете, която не е просто умна (както е умен един супер модерен компютър), а е способна да надхвърли първоначално зададените ѝ параметри, за да реши заложен проблем. Тоест – интелект, способен да намира свои пътища към дадена цел, вместо да използва предначертани такива, и да прави неочаквани за неговите създатели неща (какъвто е случаят с казуса на Фейсбук).
Още през 2014 г. година шведският философ Ник Бостром издаде голям труд, разискващ именно тези проблеми. В книгата си „Суперинтелектът: пътища, опасности и стратегии“ Бостром извежда две тези. Първо: създаването на изкуствен интелект е неизбежно, и второ – човечеството е напълно неподготвено за него.
Илън Мъск до голяма степен се превръща в популяризатор именно на тезите на Бостром, но не само това. В началото на 2015 г. той дари 10 милиона долара на един от фондовете, занимаващи се с т. нар. „проблем за контрола“. Това са научни организации, които се опитват да разработят системи за контролиране на изкуствения интелект още преди неговото създаване.
Трябва да се отбележи, че втората част от изказването на Мъск, която остава някак си в сянката на първата, е доста по-притеснителна. Отново солидаризирайки се в голяма степен с Бостром, Мъск определя ИИ като технология, криеща директни рискове за бъдещето на цивилизацията ни като цяло. Като нещо, което заплашва съществуването ни като вид по същия начин, по който приближаващ към планетата ни астероид би го заплашил.
Главният проблем според Бостром, а вероятно и според Мъск, е невъзможността да получим отговор на следния въпрос – какво ще се случи, когато хората създадат нещо, което е по-умно от тях? Отговорът на този въпрос е неясен, но едно е сигурно – тогава човекът вече няма да е на върха на пирамидата.
Това, естествено, е изцяло спекулативна материя, но големият въпрос, който следва, е въпросът за контрола – какво ни гарантира, че този по-висш от нас интелект доброволно ще ни служи и ще ни се подчинява. По аналогия можем да допуснем, че след като ние сме произлезли от маймуните, то трябва до ден-днешен да съгласуваме всяко свое действие с шимпанзетата и да организираме света според техните разбирания. Работата обаче е там, че те нямат контрол над нас, защото ние доминираме над тях: първо интелектуално и след това – технологично. Ако решим, можем да ги затворим в клетки – или да ги избием до крак.
Това може би не означава, че един ден компютрите ще решат да ни завладеят и ние ще заживеем в реална версия на „Терминатор“ или „Матрицата“. Въпросът е в това, че колкото повече свобода даваме на изкуствения интелект, колкото повече либерализираме начините той да постига целите си без наша намеса, толкова по-голяма е опасността той да започне да нанася вреди, за които ние дори и не сме си помисляли. Не е нужно тези машини да са съзнателни по начина, по който са съзнателни хората. Достатъчно е да имат възможността да постигат целите си по неизвестни за нас пътища.
Тук идва и основният въпрос в книгата на Бостром – можем ли дотогава да измислим начин да ограничаваме ИИ? За съжаление, отговорът му засега е „не“. Дори и мястото, където такава технология да бъде разработвана, е изключително проблематично. Колкото и да се опитваме да я ограничаваме, дори да я разработваме под земята в оловен бункер, а не във Фейсбук, рано или късно (дали заради възможностите си, или заради човешка грешка) ИИ ще достигне до мрежата и на практика ще получи контрол над всичко. Ако се върнем на аналогията с маймуните – за момента вярата, че ние хората можем да направим среда, в която вечно да контролираме изкуствения интелект, е същото като да вярваме, че горилите могат да направят клетка, която да е в състояние завинаги да държи затворен човек.
Със сигурност Боб и Алис не са горилите, които ще ни затворят в клетки. Още по-сигурно обаче е, че истинският изкуствен интелект е следващата стъпка на развитие. Това, което пропускаме, е, че е дошло времето не само поп звезди като Илън Мъск и Марк Зукърбърг да се занимават с този проблем публично.
Дошло е и време много по-голяма част от човешкия потенциал се впрегне в решаването на предстоящите проблеми, които ще дойдат с развитието на изкуствения интелект.