Физикът Макс Тегмарк - ученият зад забележително писмо, призоваващо за пауза в разработването на мощни системи за изкуствен интелект, каза, че технологичните ръководители не са спрели работата си, защото са в „надпревара към дъното".
Макс Тегмарк, съосновател на Future of Life Institute, организира през март отворено писмо, призоваващо за шестмесечна пауза в разработването на гигантски ИИ системи. Въпреки подкрепата на повече от 30 000 подписали, включително Илон Мъск и съоснователя на Apple Стив Возняк, документът не успя да осигури пауза в разработването на най-амбициозните системи.
Говорейки пред Guardian шест месеца по-късно, Тегмарк каза, че не е очаквал писмото да спре технологичните компании да работят върху ИИ модели, по-мощни от GPT-4, големият езиков модел, който захранва ChatGPT, защото конкуренцията е станала много интензивна. „Чувствах, че лично много корпоративни лидери, с които разговарях, искат пауза, но те бяха хванати в капана на тази надпревара към дъното един срещу друг. Така че никоя компания не може да спре сама", каза той.
Писмото предупреди за „надпревара извън контрол за развиване на умове, които никой не може да разбере, предвиди или да контролира надеждно", и призова „правителствата да се намесят, ако мораториум върху разработването на системи, по-мощни от GPT-4, не може да бъде договорен между водещите компании за изкуствен интелект като Google, собственика на ChatGPT OpenИИ и Microsoft.
„Трябва ли да развием нечовешки умове, които в крайна сметка биха могли да ни превъзхождат числено, да надхитрят, да ни направят излишни и да ни заменят? Трябва ли да рискуваме да загубим контрол над нашата цивилизация?", пита Тегмарк.
Тегмарк, професор по физика в Масачузетския технологичен институт, каза, че смята писмото за успех. „Писмото имаше по-голямо въздействие, отколкото си мислех, че ще има". Той посочи политическото пробуждане за ИИ, което включва изслушвания в Сената на САЩ с технологични ръководители и правителството на Обединеното кралство, свикало глобална среща на върха за безопасността на ИИ през ноември.
„Изразяването на тревога относно изкуствения интелект се превърна от табу в масов възглед след публикуването на писмото", каза Тегмарк. Писмото от неговия мозъчен тръст беше последвано през май от изявление на Центъра за безопасност на ИИ, подкрепено от стотици технологични ръководители и учени, в което се заявява, че ИИ трябва да се счита за обществен риск наравно с пандемиите и ядрената война.
„Чувствах, че има много натрупано безпокойство около това да работим с пълна пара с ИИ, което хората по света се страхуваха да изразят от страх да не се представят като всяващи страх лудити. Писмото легитимира говоренето за това; писмото го направи социално приемливо".
Страховете около разработването на ИИ варират от непосредствени, като способността да се генерират дълбоки фалшиви видеоклипове и масово производство на дезинформация, до екзистенциалния риск, породен от суперинтелигентни ИИ, които избягват човешкия контрол или вземат необратими и много последователни решения.
Тегмарк предупреди „да не се описва като дългосрочна заплаха, развитието на дигитална богоподобна обща интелигентност", цитирайки някои водещи учени по ИИ, които вярват, че това може да се случи в рамките на само няколко години.
Шведско-американският учен каза „Срещата на върха за безопасността на ИИ в Обединеното кралство през ноември, която ще се проведе в Bletchley Park, е чудесно нещо. Тя трябва да се насочи към три постижения: установяване на общо разбиране за сериозността на рисковете, породени от ИИ; признаване, че е необходим единен глобален отговор; и възприемане на необходимостта от спешна правителствена намеса".
Той добави, че все още е необходима пауза в разработката, докато не бъдат изпълнени глобалните договорени стандарти за безопасност. „Правенето на модели, по-мощни от това, което имаме сега, трябва да бъде спряно, докато те започнат да отговарят на договорените стандарти за безопасност. Договарянето какви да са стандартите за безопасност естествено ще предизвика паузата."
Той също призова правителствата да предприемат действия по отношение на моделите на ИИ с отворен код, които могат да бъдат достъпни и адаптирани от членове на обществеността. Meta на Марк Зукърбърг наскоро пусна голям езиков модел с отворен код, наречен Llama 2, и беше предупреден от един експерт от Обединеното кралство, че „Подобен ход е подобен на даване на хората на шаблон за изграждане на ядрена бомба".
„Опасната технология не трябва да бъде с отворен код, независимо дали е биологично оръжие или софтуер", каза Тегмарк.
Най-четени статии:
-
Украински официални лица продължават да подчертават, че основната цел на…
-
Израелските сили за отбрана (ЦАХАЛ) съобщиха, че в петък на…
-
Италианското правителство одобри състава на нов пакет военна помощ за Украйна,…
-
Френският президент Еманюел Макрон в последно време страда от ментален…
-
Украйна в някакъв момент ще трябва да започне преговори с Русия,…
-
Московската армия продължава да напредва в Украйна и според експерти…
-
Турция прекрати търговията с Израел заради офанзивата му в Газа.…
-
Юлия Навалная, вдовицата на починалия в затвора руски опозиционен лидер…
-
Турция обяви, че прекратява търговските си взаимоотношения с Израел, докато…
-
Малко вероятно е Русия да тества клаузата за взаимна отбрана…
от нета
-
ОВЕН (21 март - 20 април) Трябва да се…
-
Мъж изтича на пистата на летището в Сидни и се…
-
Великден чука на вратата. На този ден една от най-консумираните…
-
Тя е от семейство Тлъстигови, многогодишно тревисто растение, с тънко,…
-
„Мона Лиза" избрана за „най-разочароващия" шедьовър в света. Лувъра търси…
-
За пръв път от повече от 1000 години насам жена…
-
След като при всяка удобна възможност Мария раздава щедро от…
-
От ранна заран в ефира на bTV решиха да спазят…
-
Новината, че Венелин Венков и Невена Цонева напускат "Ку-ку Бенд"…
-
Кейт и Уилям са безспорно една от най-известните двойки в света,…