Физикът Макс Тегмарк - ученият зад забележително писмо, призоваващо за пауза в разработването на мощни системи за изкуствен интелект, каза, че технологичните ръководители не са спрели работата си, защото са в „надпревара към дъното".
Макс Тегмарк, съосновател на Future of Life Institute, организира през март отворено писмо, призоваващо за шестмесечна пауза в разработването на гигантски ИИ системи. Въпреки подкрепата на повече от 30 000 подписали, включително Илон Мъск и съоснователя на Apple Стив Возняк, документът не успя да осигури пауза в разработването на най-амбициозните системи.
Говорейки пред Guardian шест месеца по-късно, Тегмарк каза, че не е очаквал писмото да спре технологичните компании да работят върху ИИ модели, по-мощни от GPT-4, големият езиков модел, който захранва ChatGPT, защото конкуренцията е станала много интензивна. „Чувствах, че лично много корпоративни лидери, с които разговарях, искат пауза, но те бяха хванати в капана на тази надпревара към дъното един срещу друг. Така че никоя компания не може да спре сама", каза той.
Писмото предупреди за „надпревара извън контрол за развиване на умове, които никой не може да разбере, предвиди или да контролира надеждно", и призова „правителствата да се намесят, ако мораториум върху разработването на системи, по-мощни от GPT-4, не може да бъде договорен между водещите компании за изкуствен интелект като Google, собственика на ChatGPT OpenИИ и Microsoft.
„Трябва ли да развием нечовешки умове, които в крайна сметка биха могли да ни превъзхождат числено, да надхитрят, да ни направят излишни и да ни заменят? Трябва ли да рискуваме да загубим контрол над нашата цивилизация?", пита Тегмарк.
Тегмарк, професор по физика в Масачузетския технологичен институт, каза, че смята писмото за успех. „Писмото имаше по-голямо въздействие, отколкото си мислех, че ще има". Той посочи политическото пробуждане за ИИ, което включва изслушвания в Сената на САЩ с технологични ръководители и правителството на Обединеното кралство, свикало глобална среща на върха за безопасността на ИИ през ноември.
„Изразяването на тревога относно изкуствения интелект се превърна от табу в масов възглед след публикуването на писмото", каза Тегмарк. Писмото от неговия мозъчен тръст беше последвано през май от изявление на Центъра за безопасност на ИИ, подкрепено от стотици технологични ръководители и учени, в което се заявява, че ИИ трябва да се счита за обществен риск наравно с пандемиите и ядрената война.
„Чувствах, че има много натрупано безпокойство около това да работим с пълна пара с ИИ, което хората по света се страхуваха да изразят от страх да не се представят като всяващи страх лудити. Писмото легитимира говоренето за това; писмото го направи социално приемливо".
Страховете около разработването на ИИ варират от непосредствени, като способността да се генерират дълбоки фалшиви видеоклипове и масово производство на дезинформация, до екзистенциалния риск, породен от суперинтелигентни ИИ, които избягват човешкия контрол или вземат необратими и много последователни решения.
Тегмарк предупреди „да не се описва като дългосрочна заплаха, развитието на дигитална богоподобна обща интелигентност", цитирайки някои водещи учени по ИИ, които вярват, че това може да се случи в рамките на само няколко години.
Шведско-американският учен каза „Срещата на върха за безопасността на ИИ в Обединеното кралство през ноември, която ще се проведе в Bletchley Park, е чудесно нещо. Тя трябва да се насочи към три постижения: установяване на общо разбиране за сериозността на рисковете, породени от ИИ; признаване, че е необходим единен глобален отговор; и възприемане на необходимостта от спешна правителствена намеса".
Той добави, че все още е необходима пауза в разработката, докато не бъдат изпълнени глобалните договорени стандарти за безопасност. „Правенето на модели, по-мощни от това, което имаме сега, трябва да бъде спряно, докато те започнат да отговарят на договорените стандарти за безопасност. Договарянето какви да са стандартите за безопасност естествено ще предизвика паузата."
Той също призова правителствата да предприемат действия по отношение на моделите на ИИ с отворен код, които могат да бъдат достъпни и адаптирани от членове на обществеността. Meta на Марк Зукърбърг наскоро пусна голям езиков модел с отворен код, наречен Llama 2, и беше предупреден от един експерт от Обединеното кралство, че „Подобен ход е подобен на даване на хората на шаблон за изграждане на ядрена бомба".
„Опасната технология не трябва да бъде с отворен код, независимо дали е биологично оръжие или софтуер", каза Тегмарк.
Най-четени статии:
-
Броят на международните политически и икономически форуми, редовно провеждани в…
-
Алиансът трябва да промени стратегията си и да реагира реципрочно…
-
Американският президент Доналд Тръмп публикува пост в своята социална мрежа…
-
Навлизането на руски дронове във въздушното пространство на Полша е…
-
Европейската комисия няма да представи 19-ия пакет от санкции срещу…
-
Рогов: Киев се готви да евакуира южната част на Запорожие…
-
Слабото място на САЩ беше разкрито. Както призна министърът на…
-
Тревожни изтичания на информация от закрита среща в Лондон хвърлят…
-
Страните от ЕС се споразумяха днес за прилагане на координиран…
-
Русия постепенно се отдалечава от използването на термина „неприятелски държави“…
от нета
-
Бразилката Андреа Съншайн, наричана онлайн "фитнес-бабата", разкри, че е имала…
-
Гръцкото министерство на културата съобщи, че водолази са извадили редица…
-
Пътищата Господни са неизповедими — включително и чрез чатботове. Поне…
-
Смехът е най-доброто лекарство, особено когато денят е сив или…
-
Почина легендата в киното Робърт Редфорд. Той беше на 89…
-
Дневен хороскоп ОВЕН (21 март - 20 април) ♈Във…
-
Психологът и секс терапевт Питър Канарис съветва да се опита…
-
Това, което обикновено зрителите чакат за финала, този път се…
-
Изумруден блок с размерите на тригодишно дете, намерен в щата…
-
Световноизвестната руска красавица Ирина Шейк привлече вниманието на феновете си,…