📰 Business Insider
📅 Май 2025
Главният изпълнителен директор на Anthropic твърди, че изкуственият интелект може да заличи половината от всички стартови позиции за служители на умствения труд
Дарио Амодей · ГИД, Anthropic
Превод и анализ: НФТИНИ
Ключови точки от материала
−50%
стартови офис позиции под заплаха
Амодей заяви, че AI скоро може да премахне половината от всички начални когнитивни позиции.
⚠
Рисковете умишлено се прикриват
Корпорациите и правителствата „замазват" реалния мащаб на заплахата от AI.
−50%
наемания на завършили в Big Tech
Рязък спад в наемането на млади специалисти спрямо нивата отпреди пандемията.
Мащабът на заплахата за заетостта
Дарио Амодей открито заявява, че изкуственият интелект се развива с темпове, които скоро ще му позволят да изпълнява задачите на почти всеки съвременен служител. За разлика от предишни технологични революции, засягали предимно физическия труд, настоящата вълна на AI удря директно в ядрото на когнитивните професии — писане на код, анализ на комплексни данни, юридически проучвания и стратегическо бизнес планиране.
Скритото темпо на промяната
Амодей обръща внимание, че пробивът към Общ изкуствен интелект (AGI) се случва много по-бързо, отколкото политиците и регулаторите осъзнават. Границата, след която AI системите ще превъзхождат човешките експерти в множество домейни, може да бъде премината в рамките на следващите няколко години.
Икономическа парализа и нужда от нови модели
Главният изпълнителен директор на Anthropic изразява сериозна загриженост относно икономическите последици. Ако AI елиминира необходимостта от масов човешки труд, традиционната връзка между работа и препитание ще бъде разрушена. Амодей настоява правителствата спешно да обмислят Универсален базов доход (UBI), за да предотвратят масова бедност по време на преходния период.
Парадоксът на създателя
Въпреки че Anthropic е създател на Claude — един от най-напредналите AI модели в света, и активно тласка технологията напред, Амодей се чувства длъжен да бие тревога. Той настоява за реалистичен поглед върху „екзистенциалните икономически рискове" и предупреждава, че дори компаниите, разработващи тези системи, няма да могат самостоятелно да овладеят социалните трусове без намеса на държавните институции.
📺 BBC News · Newsnight
📅 2024
Ще се нуждаем от универсален базов доход — „кръстникът" на изкуствения интелект
Фейсал Ислам · Икономически редактор, BBC
Превод и анализ: НФТИНИ
Ключови точки от материала
50%
вероятност AI да поеме контрол
Хинтън прогнозира 50% шанс AI да се опита да поеме контрол в следващите 5–20 години.
УБД
е необходим, за да се предотврати бедност
Хинтън посъветвал „Даунинг стрийт" за въвеждане на универсален базов доход за всеки гражданин.
🚫
Пълна забрана на военния AI
Единственото истинско решение е глобална забрана на военното използване на изкуствения интелект.
УБД, неравенство и работни места
Проф. Джефри Хинтън заяви пред предаването Newsnight по BBC, че правителството ще трябва да въведе универсален базов доход (УБД), тъй като е „много притеснен, че ИИ ще отнеме много от рутинните работни места".
Бях потърсен за консултация от хора от „Даунинг стрийт" и ги посъветвах, че универсалният базов доход е добра идея.
Професорът сподели очакванията си, че ИИ ще увеличи производителността и богатството, но парите ще отидат при богатите, „а не при хората, чиито работни места ще бъдат загубени, и това ще бъде много лошо за обществото".
Пионерът зад невронните мрежи
Проф. Хинтън е пионер в разработването на невронни мрежи — теоретичната основа на настоящия бум в ИИ. До миналата година работеше в Google, но напусна технологичния гигант, за да може да говори по-свободно за опасностите от нерегулирания изкуствен интелект.
Екзистенциалната заплаха
Проф. Хинтън изрази загрижеността си, че се появяват заплахи от ниво „изчезване на човечеството". Развитието показва, че правителствата не желаят да ограничат военното използване на ИИ, докато надпреварата за бързо пазарно реализиране създава риск компаниите да не „положат достатъчно усилия за безопасност".
Моето предположение е, че след 5 до 20 години има 50% вероятност да се сблъскаме с проблема, че ИИ ще се опита да поеме контрола.
ИИ би могъл да „еволюира", за да придобие мотивация да създава повече копия на самия себе си и автономно да развие подцел за придобиване на контрол. Той посочи, че вече има доказателства за Large Language Models (LLM), които избират да бъдат измамни.
Военни приложения и регулация
Неотдавнашните приложения на ИИ за генериране на хиляди военни цели са само „върхът на айсберга", заяви Хинтън. Ще е необходимо нещо подобно на Женевските конвенции, за да се регулира военното използване на ИИ — но „не мисля, че това ще се случи, преди първо да са се случили много неприятни неща".
Попитан за надпревара с Русия и Китай, Хинтън отговори: „Путин каза, че който контролира ИИ, контролира света. Китай влага повече ресурси. По отношение на военните приложения, смятам, че ще има надпревара." В заключение: „Най-доброто решение би било пълна забрана на военното използване на ИИ."