САЩ напредват в опитите да контролират ИИ – защо ЕС изостава?

САЩ напредват в опитите да контролират ИИ – защо ЕС изостава?
  • Публикация:  Ш.Меламед
  • Дата:  
    30.11.2023
  • Сподели:

Сет Лазар
Между фантастичните глобални срещи на върха, драмата в заседателната зала на OpenAI и слуховете за технически пробиви, светът напоследък обръща голямо внимание на границите на изследванията на ИИ. Но миналия месец Службата за управление и бюджет на Белия дом (OMB) в САЩ публикува меморандум относно използването на по-обикновени системи с изкуствен интелект в правителството, което вероятно, поне в близко бъдеще, ще бъде също толкова значимо.
От използването му за проследяване на мигранти без документи до предсказуемите алгоритми, които полицейските управления внедряват за наблюдение на населението и разпределяне на ресурси, ИИ вече е общ инструмент на правителството на САЩ за намаляване на разходите – но за сметка на подлагането на най-уязвимите в обществото на произволно управление без надлежен процес и с предвидими дискриминационни резултати. Изследователи, журналисти и активисти обръщат внимание на това от години. На този повик най-накрая се отговаря.
OMB е най-голямото звено в изпълнителния кабинет на президента на САЩ. Макар и малко обсъждано, той е изключително мощно. То наблюдава другите правителствени агенции, като гарантира, че техните действия са в съответствие с програмата на президента. И миналия месец директорът на OMB, Шаланда Йънг, публикува бележка, която може да революционизира използването на ИИ в правителството на САЩ.
Предложената политика – тя все още е проект и може да бъде смекчена – ще изисква всеки отдел да назначи главен служител по ИИ и да го накара да предоставя регистър на съществуващите случаи на използване на ИИ. Само по себе си това е значителна победа за прозрачността. Но освен това служителят трябва да идентифицира системи, които потенциално ще повлияят на безопасността или правата на хората, които са обект на допълнителни значими ограничения.
Има нови изисквания за преценяване на рисковете на системите за изкуствен интелект за правата и безопасността, спрямо заявените от тях ползи. Агенциите също ще трябва да проверяват качеството на данните, които използват и да наблюдават по-внимателно системите, след като бъдат внедрени. От решаващо значение е тези, които са засегнати от ИИ системи, да получат обяснения на прост език за това как се използва ИИ и възможността да оспорват решенията на ИИ. Всичко това може да изглежда като очевидни стъпки, но в момента те не се предприемат и резултатът е: повече вреда за най-уязвимите в обществото.
Политиката също така ще принуди отделите активно да гарантират, че системите за изкуствен интелект ще насърчават равнопоставеността, достойнството и справедливостта по начина, по който се разгръщат, обръщайки внимание на присъщите несправедливи пристрастия в моделите и непредставителните данни, върху които моделите често се обучават. Правителствените отдели също трябва да се консултират със засегнатите групи, преди да внедрят такива системи, и да осигурят възможности за човешко внимание и корекция, позволявайки на хората да оспорват решения, които ги засягат неблагоприятно, вместо да бъдат обект на кафкиански „алгоритмични слепи петна".
Впечатляващо е, че бележката засяга дори дълбоко непривлекателния, но важен въпрос за правителствените поръчки за ИИ. Толкова много обществени проблеми с изкуствения интелект започват от неопитни правителствени агенции, които приемат нов софтуер, който не разбират адекватно, който е свръхпродаден от неговия доставчик и който в крайна сметка се проваля по начини, които засягат най-тежко най-слабите. Описването и изискването за най-добри практики за закупуване на ИИ системи е едно от най-важните неща, които държавните служби могат да направят в момента.
Меморандумът на OMB е казус в изследванията и воденото от гражданското общество разработване на политики. Настоящите опити за регулиране на гранични ИИ модели (които могат да изпълняват широк спектър от задачи, включително обработка на език и изображения), особено в ЕС, могат да научат нещо от тук. В началото на 2023 г., изненадан от популярността на ChatGPT, Европейският парламент се опита да приложи регулациите за граничните ИИ системи към своя (вече недостатъчен) Закон за ИИ. В тристранните преговори, които се провеждат сега – Парламентът, Европейската комисия и Европейският съвет се опитват да съгласуват различните си предложения за закона. Франция и Германия наскоро отстъпиха, тъй като осъзнаха възможните последици от тези предложения за техните бързо нарастващи местни ИИ компании (съответно Mistral и Aleph Alpha).
Този безпорядък беше предвидим. GPT-4, най-способният граничен ИИ модел, едва беше пуснат, когато бяха представени първите регулаторни предложения. Трудно е да се регулира област, в която се наблюдават чести научни открития. Екосистемата за внедряване на тези системи също се променя бързо; ще работят ли компаниите с ИИ като платформи, склонни към монополна или дву-полна власт? Или ще има силен конкурентен пазар за гранични ИИ модели? Все още не се знае. Нямаше време за изследване на обществения интерес, което да предложи балансирани политически предложения или за провеждане на добре обоснован и силен дебат на гражданското общество.
Някои идеи за регулиране на граничните системи са безсмислени – ЕС и други трябва ясно да изискват много повече прозрачност от водещите лаборатории за ИИ, особено по отношение на всякакви опасни способности, разкрити от следващото поколение системи за ИИ. Но отвъд това, най-мъдрият курс може да бъде да не се бърза с нещата и да се насърчи онзи вид дебат на гражданското общество и задълбочени изследвания, които са основа за по-зряла политика, както меморандума на OMB.
Източник: Гардиън, превод: Ш.Меламед

Станете почитател на Класа