Двама Нобелови лауреати разговарят за етиката на Изкуствения Интелект и генното инженерство

Двама Нобелови лауреати разговарят за етиката на Изкуствения Интелект и генното инженерство
  • Written by:  classa.bg***
  • Date:  
    09.04.2021
  • Share:

Битката срещу истината и древния разрив между двете „култури“. Редактирана и съкратена версия на разговора, състоял се на Дигиталния фестивал на "Файненшъл Таймс".

 

Казуо Ишигуро и Венки Рамакришнан: представяйки си ново човечество. Колаж: Тим Марс, FT

 

Истината за истината

 

Казуо Ишигуро: Струва ми се, че през изминалата година достиганхме пика на двата противоположни подхода към истината. От една страна, имахме търсене на истината, каквато тя съществува във вашия свят, в света на науката, и започнахме да разчитаме на това отчаяно. Всички наши надежди са възложени на вас, че сте способни да ни кажете какво се случва, как да излезем от тази ситуация. И мисля, че наистина оценяваме факта, че всички дискусии, които вие провеждате, се основават на доказателствата и стриктните методи.

В контраст на това, особено около неща като изборите в САЩ, ние изглежда имаме този напълно различен подход към истината, който може да се обобщи с думите „каквото и да чувстваш с достатъчна убеденост, е истина“. И доказателствата са почти ирелевантни. Твоите емоции дават на истината валидност.

 

 

Венки Рамакришнан: Най-напред, науката е много несигурна. Има множество неясноти. Това, което се опитваме да правим, е да продължим да отсяваме вероятностите, за да разберем с много по-голяма сигурност, какво всъщност става.

Причината, поради която стигнахме до това, не е че ние учените сме по-малко емоционални от не-учените. Учените, като личности, са точно толкова податливи на колебания, емоции и всички останали неща, които ни правят хора. По-скоро начинът, по който науката работи, е на първо място проверка на работата на всички останали, така че да имаме кръстосана проверка. Има строг метод. Не може да повярваш на това, което говорят хората, трябва да разгледаш доказателствата.

Така подхожда науката. Публиката обаче иска сигурност и това я прави уязвима за шарлатани, които са готови да дадат на публиката сигурност. Това е валидно, независимо дали става дума за климатичните промени, или за генното инженерство, или дори за Ковид кризата. Но учените вярват, че накрая истината печели и това се нарича обективност на науката, която е резултат от самия процес на науката.

 

 

КИ: Често ми се струва, че ми се е случило да израсна в свят, в който има един вид Берлинска стена между културата на науката и културата на изкуството. Въпреки че баща ми беше учен, аз в много ранна възраст реших, че този начин на мислене не е за мен. И понякога съм се чувствал дори горд от факта, че знам много малко за науката. Не само за фактите, но и за методите, за предположенията, за тази строгост.

Моето безпокойство е за хората, които правят това, което аз правя, които търгуват с фикция и разказване на истории, където опитваш да развълнуваш хората и да извикаш тяхната емпатия. Чудя се дали, неволно, като изтъквам съществуването на друг вид истина, различна от тази, която вие оспорвате и дебатирате в света на науките, не съм създал впечатлението, че този друг вид истина по някакъв начин е също толкова важен.

 

 

ВР: Мисля, че по-дълбокият проблем е в това, което Бъртранд Ръсел веднъж нарече младенческата възраст на разума. Ние претендираме, че сме много рационални същества, но дълбоко в същността си сме силно емоционални същества. Така че, има един пласт рационалност върху нас, но това е много тънък пласт. Как тогава да се предпазим? Нямам добро решение, освен да образоваме хората и да бъдем прозрачни относно това как разбираме нещата. Учените трябва да кажат не само, че промяната на климата се случва, но постоянно да говорят откъде знаят това.

 

Крис Крофърд, компютърен изследовател в Университета на Алабама, който говори за предразсъдъците на ИИ.

 

 

Изкуственият Интелект: нов Делфийски оракул

 

 

Крис Крофърд, компютърен изследовател в Университета на Алабама, който говори за предразсъдъците на ИИ.

 

 

КИ: Моят роман (Клара и слънцето) не трябва да се приема като анализ или дебат за ИИ като такъв, или пък за генното инженерство. В романа аз се интересувам как огромният напредък в тази област ще промени човешките отношения в семейството. Дали по някакъв начин ще промени начина, по който гледаме на себе си, като индивиди? И ако погледна на някого по различен начин, това ще промени ли прородата, да кажем, на любовта?

Аз съм от хората, които много се вълнуват от ИИ. Мисля, че вече, по време на пандемията, имаше пробив на Дийп Майнд относно триизмерната форма на протеина. Но очевидно, ние трябва да сме загрижени как ще реорганизираме нашето общество около подобни огромни промени.

Кои са нещата, които най-много те тревожат? Знам, че не си особено разтревожен, че роботите могат да превземат главната улица.

 

 

ВР: Чувствам, че ИИ вече влияе на живота ни по страшно много начини. Ти спомена някои от добрите начини – използването на ИИ в медицината и науката ще промени начина, по който анализираме големи масиви от данни и вадим заключения от тях. Но с това идват и много рискове. Усещам, че понякога сякаш бродим в свят, в който не знаем какво ще се случи. И ако не вземем правилния вид решения, може да имаме проблем.

Ще ти кажа само някои от нещата, които ме притесняват. Например, ИИ ще взема решения, въз основа на големи масиви от данни. И тези решения ще дойдат с всякакъв род съмнения, защото масивите от данни са пристрастни. Ако в днешното общество ние сме пристрастни относно етническите малцинства, или от джендър, тези пристрастия ще бъдат отразени в анализите на ИИ, освен ако по някакъв начин не положим усилието да ги елиминираме. И не е ясно, изцяло, как това ще бъде направено.

Съществува и въпросът за отражението върху работните места. В първата индустриална революция хората не осъзнават, че е отнело повече от 100 години, преди положението на средния работник да се подобри. Техните животи са били унищожени, били са изхвърлени от работните си места в мизерията. Днес ИИ превзема много дейности, които смятахме, че могат да бъдат извършвани само от хора. Така че, това ще създаде класово общество: малцината, жреците, които все още ще бъдат нужни, и останалите хора, които ще станат излишни. И цялата работа със загубата на личното пространство, защото ИИ извършва наблюдения и тоталитаризъм много по-мощно.

И най-после, трябва да кажа, че ИИ може да генерира много убедителни фалшиви факти. Може да имаш Обама, който казва неща, които никога всъщност не е казвал, и тогава средният човек как ще приеме това псевдо-доказателство и ще го отхвърли?

 

 

КИ: Аз споделям всички тези притеснения. Във връзка с твоята забележка за индустриалната революция: тогава съществуваше идеята, че макар много работни места да бъдат загубени при механизацията, ще бъдат създадени и нови работни места. Много хора мислят, че това няма да се случи с ИИ. Работните места просто ще изчезнат. И може да се наложи изцяло да реорганизираме начина, по който работим с ценностните си системи, не само по отношение на парите, но и по отношение на престижа, чувството ни за стойност, понеже сме прекарали столетия, отдадени на идеята, че сме ценни поради приноса ни за общата икономика.

Бих добавил нещо към онова, което каза, за 100те години, които са били нужни, за да се подобри положението на средния работник. Разбира се, дори не говорим за това, че деца са били пращани в мините, седемгодишни са работели по 10 часа на ден. И дори не споменаваме как индустриалната машина е подхранвала търговията с роби. Ние сме минали през някои ужасяващи неща, преди да реорганизираме обществото и човек може да поспори затова, че двете световни войни идват вследствие на последните етапи на осъществяване на индустриалната революция.

 

 

ВР: През 1930те години [Джон Менард] Кейнс написва есе, озаглавено „Икономическите възможности пред нашите внуци“. Той предсказва, че ще е възможно напредналите технологии да произведат цялата прехрана и жилищата, и всичко друго, от което се нуждаем, и че ние ще трябва да работим само по няколко часа на седмица. А през останалато време ще се занимаваме с изкуство и с развлекателни дейности.

Разбира се, това никога не се случи. Дейвид Грейбър, който почина миналата година, каза, че това, което се случи, беше увеличаването на „безсмислените работни места“ (“bullshit jobs”). Ние всички вършим тези работи, които наистина мразим, но системата изисква да бъдем заети, за да можем да изчегъртаме прехраната си. И аз мисля всъщност, че ИИ има потенциала, ако желаем да го използваме по този начин, да ни освободи от наистина ужасни дейности.

 

 

КИ: Искам само бързо да коментирам две неща, които ти каза по-рано. Тази идея за ИИ като черна кутия – че предразсъдъците и предубежденията ще бъдат отпечатани в тях – ме тревожи, защото трябва само да хвърлим бегъл поглед към историята, за да видим колко много сме променили възгледите си за неща, които някога са били напълно официализирани.

Не е нужно да се връщаме много назад, за да видим, че робството е било съвсем нормално нещо. Но може и тези черни кутии на ИИ, препоръките на ИИ, да станат неща, които няма да смеем да оспорваме, дори и да не разбираме основанията, на които тези препоръки са направени. С други думи, ще стане нещо като Делфийски оракул.

 

 

„Ние сме само неща, които се жънат“ – отнемане на контрола от Биг Тек

 

 

Софтуер за лицево разпознаване, използван в централния офис на компанията за ИИ Megvii в Пекин, 2018 г.

 

 

КИ: Моят въпрос е този: как да изградим платформи, на които да можем да имаме смислени дискусии за начина на реорганизиране на обществото? Не само пред лицето на ИИ, но и на нещо, което още не сме засегнали, генното инженерство. Има академични конференции, но не виждам наистина смислена платформа за дебат, за момента.

Другото нещо, което ме тревожи, е че в миналото, когато сме имали научни открития, те са били под правителствен контрол. Струва ми се, че в момента голяма част от основите се прави вътре в частни корпорации, най-вече компании на Big Tech, и техният бизнес-модел не ги насърчава особено да отворят дебат. Тяхното намерение е да бъдат колко е възможно по-свободни от законодателство и надзор. Не искам да кажа, че имат лоши намерения, но те имат свои приоритети.

 

 

ВР: Мисля, че публиката трябва да е наясно с проблемите и да бъде активна в натиска си за информация, за действия, за законодателство и най-вече, за прозрачност. Тъкмо слушах беседа на Ювал Ноа Харари, който каза, че прозрачността трябва да работи и в двете посоки. Което значи, че ако правителството иска повече информация за теб, тогава ти също трябва да имаш повече информация за правителството. Мисля, че тази реципрочна прозрачност е добра идея. Например, ние не знаем нищо за начина, по който работят тези корпорации, или дори понякога как правителствата използват нашите данни.

 

 

Има едно известно заглавие от статия, което казва: „Ако е безплатно, значи ти си продуктът“. Защото не си всъщност ползвателят. Ползвателят са хората, които ти продават реклами, насочват реклами към теб. Затова мисля, че хората трябва да са наясно за стойността на своите данни и за последствията от даването им без никакъв контрол върху тях.

 

 

КИ: Аз дори бих оспорил това, Венки. Не знам дали ние сме дори и продукт. Мисля, че сме по-скоро обработваема земя. Ние сме малко като земята, която се копае. Данните са продуктът. Този, който купува тези данни, е ползвателят. Ние сме просто неща, които се жънат.

 

 

ВР: Това е още по-добра аналогия.

 

 

КИ: Още веднъж, има толкова много области, в които изглежда нямаме правилната дискусия. Аз заемам позиция в една област от света, в която създаваме истории. Някои от тях са развлекателни, но [те също така] допринасят за обществената тревога, за обществения консенсус относно големите проблеми. Мисля, че сега сме много добре подготвени, като международна общност, за това какво да правим, ако зомбитата започнат да ни превземат. И знаем какво да правим, ако съпругът ни се превърне във вампир, защото сме толкова образовани по този въпрос от популярната култура. Може би обаче нямаме много от тези [други] идеи, които съществуват.

 

 

Генното инженерство и стремежът към човешко съвършенство

 

 

Член на екипа храни клонирани маймунки с нарушения в циркадиевия ритъм в Института по Невронауки на Китайската Академия на науките в Шанхай, 2019 г.

 

 

ВР: ИИ има нещо общо с генното инженерство, което означава, че отново сме в опасност от блуждаене в едно бъдеще, което не искаме вдействителност. Генното инженерство, както и ИИ, има множество предимства. Можем да го използваме за коригиране на генетични дефекти и ще има огромен натиск върху учени и правителства, за да позволят това.

Но можем да говорим също и за хора, които искат да подобрят генетичния си потенциал. Може да искат да са по-високи, или по-силни, или по-умни, или да имат руса коса, или сини очи, или каквото и да е. И тогава се плъзгаш по тази пътека на създаване на генетично модифицирана суперкласа – нещо, което подсказваш в твоята книга. И проблемът и с двете неща е: как контролираме трансформативната технология?

 

 

КИ: Мисля, че козметичната хирургия е много добър паралел, като индикация за това къде може да се озовем. Козметичната хирургия е създадена, първоначално, за да помага на жертви на изгаряне, или на травма, но сега е грамадна индустрия за подобряване. И аз не знам как това може да бъде спряно.

Веднъж стигнем ли до етапа, в който някои деца, които бързо ще станат възрастни, имат „превъзхождащи характеристики“ – незвисимо дали са интелектуални, когнитивни или физически – цялата идея за меритокрацията, от която нашите либерални демокрации и нашият свободен свят в някаква степен зависят, ще стане проблематична, струва ми се.

 

 

ВР: Абсолютно. Можеш да си купиш достъп до меритокрация като просто подобриш клетките си за поколението. Не мисля, че вече сме стигнали дотам, но ако такава възможност е станала вероятна, то вече е твърде късно да се смисли за това. Така че, трябва да мислим за тези неща сега, за да се уверим, че поемаме в посока, от която ще бъдем щастливи.

Това е нещо, в което цялото общество има дял, и то трябва да бъде международно, защото знаем, че ако определени процедури не са позволени в дадени страни, хората просто ще отидат в друга част на света, където правилата са по-свободни.

 

 

Технологията ще стигне ли отвъд биологичния капацитет на човека?

 

 

ВР: Мисля, че има области, които са толкова комплексни, че са отвъд обсега на човек. Дори дизайнът на нов микропроцесор сега се прави от програми и компютри. Ние генерираме алгоритмите, които след това продължават сами и изпълняват дизайна. И безспорно много от обемните данни са разбираеми, единствено ако изпозлваме алгоритми, които по някакъв начин да ги филтрират и да ни дадат изводите от тях.

Така че, да, ние достигаме този етап, но ми се иска да мисля, че на концептуално ниво сме все още повече или по-малко в контрол. Най-малкото, ние сме тези, които задават въпросите и дефинират проблемите. Мисля, че следващият етап ще настъпи, ако ИИ започне да задава въпроси, за които дори не сме си помисляли.

 

 

КИ: Има една фраза, която често се чува в света на ИИ: „Управлява се от Хора“ („Humans in the loop”). Което е, мисля, успокояваща идея – че винаги ще има нещо от рода на човешки нощен пазач там, който да наблюдава ИИ. Но си спомням, Венки, с теб бяхме на вечеря, когато [психологът] Даниъл Канеман каза, с голяма убеденост, че това е просто наивно.

Човешките същества са все още толкова назад, че няма начин да продължим да управляваме с човек. Ще бъде наистина сякаш имаме някакъв пенсионер за нощен пазач, който се опитва да надзирава цял стадион с беснеещи футболни запалянковци.

 

 

Твърде сложно ли е за нас настоящето?

 

 

Техник провежда диагностика на хуманоиден робот на Световната конференция по ИИ в Шанхай, 2020 г.

 

 

КИ: Мисля, че е много важно да сме убедени, че отговорът на този въпрос е не.

Едно от нещата, които ме интересуват, като човек и като писател, е цялата тази комплексност, как ще задържим човешкия индивид като най-важна основна единица в така изгражданите от нас общества? Нали през 20ти век се борихме с всички видове системи, в които този идеал беше изоставен. Където някакъв друг голям идеал, като комунизма, или каквото и да е друго, означаваше, че може индивидът да бъде пожертван за по-голяма кауза.

Мисля, че това е много опасна мисъл, идеята, че светът е толкова сложен, че може и спокойно да се откажем. Това ми напомня откъде тръгнахме [в нашата доскусия], толкова е трудно да се намери истината, нека просто да се откажем. Нека всеки да си има своя собствена истина, основаваща се на това, което му харесва да вярва и просто ще си я крещим един на друг.

 

 

Не трябва да се отказваме.

 

 

ВР: Айзък Азимов имаше тези правила, че роботите не трябва да вредят и прочие, и преди една година имаше една група за управление на данни, и единственото правило, което имаха, беше че хората трябва да процъфтяват. Мисля, че това е ценен принцип при развиването на нова технология.

 

 

Как оценявате шансовете ИИ да напише велик роман?

 

 

ВР: Мисля, че великият роман задава въпроси. А това е нещо, което ИИ все още не прави. Ние сме тези, които задават въпросите. ИИ често се използва, за да даде отговорите.

Така че, не съм убеден, че ИИ ще направи това в близко бъдеще. Но както подчерта Даниъл Канеман, всичко, което казваме за ИИ, е напълно остаряло, в момента, в който го изричаме, защото ИИ се развива много бързо.

 

 

КИ: Аз ще дам много кратък отговор на този въпрос. ИИ в момента може би не разбира достатъчно добре човешката емпатия, за да напише роман, който да е в състояние да те накара да се смееш или да плачеш. Но когато това стане, мисля, че най-малкият ни проблем ще бъде дали аз ще си загубя работата, или не. Защото това ще означава, че ИИ ще бъде в състояние да управлява политически кампании, ще бъде способен да определя кои политически движения се зараждат, ще може да идентифицира емоциите, които има там, гневът, или фрустрацията, или надеждите, които обществото има.

 

 

С други думи, не се тревожете дали ИИ ще пише велики романи, безпокойте се дали ИИ ще пише нашите конституции. ИИ може да измисли следващата велика идея, като демокрацията, или комунизма, или нацизма, или парите, или акционерните дружества. Когато разбере как да манипулира човешките емоции, ще имаме много сериозни причини за тревога.

 

 

 

"Файненшъл таймс",  Превод : Екатерина Тенева

 
 
 
 

Станете почитател на Класа