Anthropic се отказва от ключовия си ангажимент за безопасност в AI - важи ли това и за ЕС?

Американската компания Anthropic, която доскоро се представяше като най-предпазливия играч в надпреварата за изкуствен интелект, се отказва от основния ангажимент в своята политика за безопасност. Това съобщава списание Time в ексклузивен материал, позовавайки се на разговор с ръководството на компанията. През 2023 г. Anthropic пое публичен ангажимент да не обучава нови, по-мощни AI системи, ако предварително не може да гарантира, че мерките за безопасност са достатъчни . Това беше централният елемент от т.нар. Responsible Scaling Policy (RSP) - документ, който трябваше да убеди обществеността, че компанията няма да бърза към потенциално опасни технологии. Над 80% от компаниите не виждат ръст на продуктивността от AI - въпреки милиардните инвестиции Сега този ангажимент отпада, включително за най-популярния модел на компанията - Claude. „Не смятаме, че би помогнало на когото и да било, ако спрем да обучаваме AI модели“, казва пред Time главният научен директор на Anthropic Джаред Каплан. Той допълва, че „при бързия напредък на AI няма смисъл да поемаме едностранни ангажименти, ако конкурентите ни продължават напред“. Какво се променя на практика? Вместо категорично правило „няма безопасност - няма развитие“, новата версия на политиката предвижда: повече прозрачност за рисковете от моделите; редовни доклади за риска на всеки 3-6 месеца; публикуване на „Frontier Safety Roadmaps“ - планове за бъдещи мерки за сигурност; ангажимент да не изостават от конкурентите по стандарти за безопасност. Пука ли се балонът? Сделката за $100 млрд. между Nvidia и OpenAI изчезна Но отпада ясната "червена линия", при която определено ниво на способности автоматично би спряло разработката. Критиците виждат в това тревожен сигнал. Крис Пейнтър от организацията METR коментира пред TIME, че промяната показва, че „методите за оценка и ограничаване на риска не успяват да догонят развитието на технологиите“. "Това е още едно доказателство, че обществото не е подготвено за потенциалните катастрофални рискове от AI" , отбелязва той. Защо Anthropic отстъпва? Компанията посочва няколко причини: Липса на международна регулация - очакваните общи правила така и не се появяват. Политическа промяна в САЩ - според Time администрацията на Доналд Тръмп заема по-либерална позиция спрямо развитието на AI. Засилена конкуренция - както между компании, така и между държави. Научна несигурност - оценката на рисковете (включително биологични заплахи) се оказва по-сложна от очакваното. „Не правим завой на 180 градуса“ , твърди Каплан. Според него, ако една компания спре развитието си, докато други продължават без достатъчни ограничения, това може да направи света по-малко, а не по-сигурен. Експеримент потвърди - AI чатботовете измислят новини... и медии Какво означава това за Европа и България? Промяната не е ограничена само до САЩ. Моделите на Anthropic се използват от компании и в Европа, включително чрез облачни платформи и API услуги. В Европейския съюз обаче вече действа т.нар. AI Act (приет през 2024 г., прилаган поетапно) - регламент, който въвежда строги изисквания за прозрачност, оценка на риска и контрол върху високорисковите системи. Това означава, че дори ако Anthropic смекчава вътрешните си правила, компаниите, които използват нейните модели в ЕС трябва да спазват европейските изисквания за безопасност и отчетност. За българските фирми и институции това означава, че използването на такива модели продължава да бъде обект на европейска регулация, независимо от вътрешната политика на самата компания. По-малко самоналожени ограничения, повече пазарна логика Anthropic наскоро привлече нови инвестиции за 30 млрд. долара и достигна оценка от около 380 млрд. долара, като приходите ѝ нарастват многократно. Компанията вече не е изоставащият играч спрямо OpenAI, а сериозен конкурент. На този фон решението изглежда като опит да се избегне изоставане в надпреварата към по-мощни системи = включително към т.нар. „суперинтелигентност“. --- Този материал е написан с помощта на изкуствен интелект под контрола и редакцията на поне двама журналисти от Клуб Z. Материалът е част от проекта "От мястото на събитието предава AI". "От мястото на събитието предава AI" с подкрепата на "Америка за България"