📰 Business Insider 📅 Май 2025

Главният изпълнителен директор на Anthropic твърди, че изкуственият интелект може да заличи половината от всички стартови позиции за служители на умствения труд

Ключови точки от материала

−50%
стартови офис позиции под заплаха

Амодей заяви, че AI скоро може да премахне половината от всички начални когнитивни позиции.

Рисковете умишлено се прикриват

Корпорациите и правителствата „замазват" реалния мащаб на заплахата от AI.

−50%
наемания на завършили в Big Tech

Рязък спад в наемането на млади специалисти спрямо нивата отпреди пандемията.

Мащабът на заплахата за заетостта

Дарио Амодей открито заявява, че изкуственият интелект се развива с темпове, които скоро ще му позволят да изпълнява задачите на почти всеки съвременен служител. За разлика от предишни технологични революции, засягали предимно физическия труд, настоящата вълна на AI удря директно в ядрото на когнитивните професии — писане на код, анализ на комплексни данни, юридически проучвания и стратегическо бизнес планиране.

Скритото темпо на промяната

Амодей обръща внимание, че пробивът към Общ изкуствен интелект (AGI) се случва много по-бързо, отколкото политиците и регулаторите осъзнават. Границата, след която AI системите ще превъзхождат човешките експерти в множество домейни, може да бъде премината в рамките на следващите няколко години.

Икономическа парализа и нужда от нови модели

Главният изпълнителен директор на Anthropic изразява сериозна загриженост относно икономическите последици. Ако AI елиминира необходимостта от масов човешки труд, традиционната връзка между работа и препитание ще бъде разрушена. Амодей настоява правителствата спешно да обмислят Универсален базов доход (UBI), за да предотвратят масова бедност по време на преходния период.

Парадоксът на създателя

Въпреки че Anthropic е създател на Claude — един от най-напредналите AI модели в света, и активно тласка технологията напред, Амодей се чувства длъжен да бие тревога. Той настоява за реалистичен поглед върху „екзистенциалните икономически рискове" и предупреждава, че дори компаниите, разработващи тези системи, няма да могат самостоятелно да овладеят социалните трусове без намеса на държавните институции.

🔗
Оригинален източник
Business Insider — Anthropic CEO warning AI could eliminate jobs (2025)
📺 BBC News · Newsnight 📅 2024

Ще се нуждаем от универсален базов доход — „кръстникът" на изкуствения интелект

Ключови точки от материала

50%
вероятност AI да поеме контрол

Хинтън прогнозира 50% шанс AI да се опита да поеме контрол в следващите 5–20 години.

УБД
е необходим, за да се предотврати бедност

Хинтън посъветвал „Даунинг стрийт" за въвеждане на универсален базов доход за всеки гражданин.

🚫
Пълна забрана на военния AI

Единственото истинско решение е глобална забрана на военното използване на изкуствения интелект.

УБД, неравенство и работни места

Проф. Джефри Хинтън заяви пред предаването Newsnight по BBC, че правителството ще трябва да въведе универсален базов доход (УБД), тъй като е „много притеснен, че ИИ ще отнеме много от рутинните работни места".

Бях потърсен за консултация от хора от „Даунинг стрийт" и ги посъветвах, че универсалният базов доход е добра идея.

Професорът сподели очакванията си, че ИИ ще увеличи производителността и богатството, но парите ще отидат при богатите, „а не при хората, чиито работни места ще бъдат загубени, и това ще бъде много лошо за обществото".

Пионерът зад невронните мрежи

Проф. Хинтън е пионер в разработването на невронни мрежи — теоретичната основа на настоящия бум в ИИ. До миналата година работеше в Google, но напусна технологичния гигант, за да може да говори по-свободно за опасностите от нерегулирания изкуствен интелект.

Екзистенциалната заплаха

Проф. Хинтън изрази загрижеността си, че се появяват заплахи от ниво „изчезване на човечеството". Развитието показва, че правителствата не желаят да ограничат военното използване на ИИ, докато надпреварата за бързо пазарно реализиране създава риск компаниите да не „положат достатъчно усилия за безопасност".

Моето предположение е, че след 5 до 20 години има 50% вероятност да се сблъскаме с проблема, че ИИ ще се опита да поеме контрола.

ИИ би могъл да „еволюира", за да придобие мотивация да създава повече копия на самия себе си и автономно да развие подцел за придобиване на контрол. Той посочи, че вече има доказателства за Large Language Models (LLM), които избират да бъдат измамни.

Военни приложения и регулация

Неотдавнашните приложения на ИИ за генериране на хиляди военни цели са само „върхът на айсберга", заяви Хинтън. Ще е необходимо нещо подобно на Женевските конвенции, за да се регулира военното използване на ИИ — но „не мисля, че това ще се случи, преди първо да са се случили много неприятни неща".

Попитан за надпревара с Русия и Китай, Хинтън отговори: „Путин каза, че който контролира ИИ, контролира света. Китай влага повече ресурси. По отношение на военните приложения, смятам, че ще има надпревара." В заключение: „Най-доброто решение би било пълна забрана на военното използване на ИИ."

🔗
Оригинален източник
BBC News — "We'll need universal basic income – AI 'godfather'" (2024)