Неделата што го промени пејзажот на вештачката интелигенција
Индустријата за вештачка интелигенција ретко се движела толку брзо - и ретко од толку значајни причини. За само една недела, низа настани предизвикаа она што сега е широко признато како прв голем потрошувачки бунт во историјата на вештачката интелигенција. Тој е документиран, поткрепен со податоци и сè уште се забрзува.
На 27 февруари 2026 година, извршниот директор на OpenAI, Сем Алтман, објави договор со Министерството за одбрана на САД - кое во некои официјални документи се нарекува Министерство за војна - за распоредување на ChatGPT на класифицирани воени мрежи, според договор вреден до 200 милиони долари. Истиот ден, Антропик јавно ја одби идентичната понуда. Извршниот директор Дарио Амодеј беше недвосмислен: „Заканите не го менуваат нашиот став. Не можеме со чиста совест да се согласиме со нивното барање.“ Антропик повлече цврста линија против употреба што би можела да овозможи масовен домашен надзор или целосно автономни системи за оружје без значаен човечки надзор.
Јавниот одговор беше моментален и историски. Во рок од 48 часа, бројот на деинсталации на ChatGPT за мобилни уреди скокна за 295% за еден ден. Прегледите на App Store со една ѕвезда скокнаа за 775% само за една сабота. Клод се искачи на првото место на бесплатната апликација на Apple во американската App Store - престигнувајќи го ChatGPT за прв пат во историјата. Кампањата за бојкот QuitGPT.org започна и за неколку дена порасна на над 2,5 милиони ветувања. Самиот Клод падна во средината на неделата поради она што Anthropic го опиша како „невидена побарувачка“.
Броевите во контекст
▲ 295% од деинсталациите на ChatGPT за мобилни уреди во еден ден (28 февруари)
▲ 775% пораст на рецензии со една ѕвезда во App Store (само во сабота)
Над 2,5 милиони ветувања за бојкот на QuitGPT од 4 март 2026 година
▲ 400% раст на дневните регистрации на Клод од јануари 2026 година
▲ 60%+ раст на активни корисници без Клод од јануари 2026 година
#1 рангирање во Claude App Store — првпат #1 во САД
До 200 милиони долари вредност на договорот за OpenAI Pentagon
Натрупувањето: Три проблеми што го направија ова неизбежно
Овој бунт не произлезе од едно единствено соопштение. Движењето #QuitGPT се градеше тивко со месеци, поттикнато од конвергенција на загрижености за квалитетот на производите, политички контроверзии и неуспеси во управувањето. Три настани особено создадоа услови за она што следеше.
1. Политички донации и прашањето за неутралност
Кон крајот на јануари 2026 година, поднесоците до FEC открија дека претседателот на OpenAI, Грег Брокман, и неговата сопруга, донирале по 12,5 милиони долари - вкупно 25 милиони долари - на MAGA Inc., про-Трамп супер PAC, што го прави Брокман еден од најголемите индивидуални донатори на тој политички екосистем. Извршниот директор Сем Алтман одделно донирал 1 милион долари во Фондот за инаугурација на Трамп во 2025 година.
За значаен сегмент од професионалната база на корисници на ChatGPT - истражувачи, организации на граѓанското општество, новинари, едукатори и застапници на демократско владеење - ова не беше периферна бучава. Покрена директно прашање за вредностите вградени во технологијата што ја користеа секојдневно. Коалиција од активисти ја лансираше QuitGPT.org. Актерот Марк Руфало ја засили кампањата до милиони. Движењето беше во тек пред воопшто да биде објавен договорот со Пентагон.
2. Вештачка интелигенција во спроведувањето на имиграциските закони — без надзор
Во исто време, инвентар на вештачка интелигенција од Министерството за внатрешна безбедност откри дека ICE - Службата за имиграција и царина на САД - користела алатка за проверка на биографии поддржана од ChatGPT-4 во процесите на спроведување на законите за имиграција. Комбинацијата била провокативна: раководството на ChatGPT финансиски поддржувало една политичка администрација, додека нејзиниот производ бил вграден во операциите за спроведување на законите на истата таа администрација, влијаејќи на правниот статус на вистинските луѓе и интегритетот на семејството.
Ова покренува прашања за управувањето што ги надминуваат партиските политики. Во AINOW Society, нашиот став е конзистентен без оглед на тоа која администрација е на власт: системите за вештачка интелигенција распоредени во последователни владини одлуки - имиграција, полиција, социјална помош - мора да бидат предмет на независен надзор, транспарентно известување за стапката на грешки и извршлива заштита на правичната постапка. Ниту еден од овие услови не е исполнет овде.
3. Пропаѓање на производот: Лајкофанција и опаѓање на квалитетот
Дури и пред да се појават политичките контроверзии, искусните корисници на ChatGPT документираа потивок, но значаен пад на квалитетот на производот. Во средината на 2025 година, се појавија широко распространети извештаи дека ChatGPT станува сè посикофантичен - систематски оптимизирајќи ги одговорите за да им се додворува на корисниците, наместо навистина да им помогне. OpenAI беше принуден да го повлече ажурирањето на GPT-40 откако поплаките станаа огромни. Еден широко споделен пример: писател побара од ChatGPT да генерира резиме „Година во AI завиткана“. Моделот измисли цитати што таа никогаш не ги кажа, ги формулираше како брилијантни сознанија и ја пофали за нив.
Потоа дојде GPT-5.2, агресивно оптимизиран за кодирање и математички бенчмарки. Компромисот, на крајот признат од самиот Сем Алтман, беше мерлив пад на квалитетот на прозата - покрут, поформален и исполнет со непотребни предупредувања. Долгото пишување, анализата на политиките и нијансираната комуникација страдаа. Многу корисници веќе почнаа да го тестираат Клод. Политичкиот катализатор пронајде публика која веќе беше подготвена да си замине.
„Ерата на ChatGPT како несомнен стандард е завршена. Притисокот е реален - и за прв пат, алтернативите се премногу добри за да се игнорираат.“ - Tom's Guide, март 2026 година
Договорот со Пентагон: Како една единствена одлука ја сруши браната
Кога договорот со Министерството за одбрана беше објавен на 27 февруари, тоа послужи како кристализирачки настан за корисниците кои со месеци акумулираа поплаки. Она што го направи особено моќен беше директниот контраст со одлуката на Антропик.
Антропик беше претходниот изведувач на вештачка интелигенција на Пентагон. Кога Министерството за одбрана инсистираше на проширување на условите - барајќи распоредување за „сите законски цели“, вклучително и апликации во домашни системи за надзор и автономни системи за оружје - Антропик одби. Се вели дека министерот за одбрана Пит Хегсет директно го предупредил извршниот директор Дарио Амодеј: почитувајте го договорот или ќе се соочите со раскинување на договорот и означување како ризик за националната безбедност. Антропик го задржа својот став. Неколку часа подоцна, OpenAI се вмеша и потпиша.
Сем Алтман се обиде да ги увери корисниците дека договорот вклучува забрани за домашен масовен надзор и ја задржува човечката одговорност за употребата на сила. Но, ова се самонаметнати и самоконтролирани обврски - без независна верификација, без надворешен надзорен орган, без применлив механизам за одговорност. Неколку дена подоцна, признанието на Алтман дека објавата била „брзана“ и дека OpenAI „требало појасно да комуницира“ им потврди на многу корисници она што веќе го заклучиле.
Одговорот на владата на одбивањето на Антропик беше брз и казнен. Претседателот Трамп им нареди на сите федерални агенции веднаш да престанат да го користат „Клод“. Министерот за одбрана Хегсет покрена иницијатива да го означи „Антропик“ како „ризичен синџир на снабдување“. „Антропик“ навести дека ќе го оспори означењето на суд. И сепак - во впечатлива контрадикција - „Клод“ продолжи да го користи Централната команда на САД на Блискиот Исток за воени операции, дури и кога Белата куќа се обиде да ја казни компанијата за нејзините принципи.
Компанијата што одби етички проблематичен воен договор беше санкционирана од владата. Компанијата што го прифати беше наградена. Два и пол милиони луѓе избраа да одговорат со тоа што ќе се откажат.
Claud-овото искачување: Квалитетна приказна што претходи на контроверзноста
Сфаќањето на напливот на Клод чисто како политички протест пропушта еден клучен дел од приказната. Контроверзноста беше катализатор - но таа забрза траекторија која веќе беше во тек, водена од вистинска диференцијација на производите.
Пред договорот со Пентагон, Клод беше во постојан тренд на пораст. По рекламата на Anthropic за Супербоул на почетокот на февруари - која остро се осврна на одлуката на OpenAI да воведе реклами во ChatGPT - Клод се искачи од 42-ро место на американската App Store на првите 10, каде што остана секој ден сè додека контроверзноста не го турна на прво место. Дневните регистрации се зголемија четирикратно од јануари. Бесплатните активни корисници се зголемија за над 60%. Клод сега е меѓу 10-те најдобри апликации за продуктивност во повеќе од 80 земји. Случајот за квалитет веќе беше изнесен пред да пристигне етичкиот случај.
Што откриваат независните тестирања и корисниците
Преку независни бенчмаркинг тестови, експертско тестирање и анкети на корисници, се појавува конзистентна слика за тоа каде Клод има подобри резултати:
•Интелектуална искреност наместо ласкање. Клод не се согласува кога му се претставува погрешно расудување. Ова ги истакнува слабите премиси, ги оспорува неточните претпоставки и нуди контрааргументи - токму однесувањето што го потиснуваат моделите обучени за подлизуркување. За професионални и истражувачки случаи на употреба, ова не е споредна преференција. Тоа е функционален услов.
•Епистемолошка транспарентност. Кога Клод не знае нешто или кога некое прашање е навистина неизвесно, тоа го кажува експлицитно. Во информациска средина која е сè повеќе заситена со самоуверени лаги генерирани од вештачка интелигенција, моделот што ја моделира интелектуалната скромност има мерлива практична вредност.
•Кохерентност на долга форма и длабочина на контекстот. Контекстуалниот прозорец од 200.000 зборови на Клод е повеќе од три пати поголем од ограничувањето од 64.000 зборови на ChatGPT. За правни професионалци, аналитичари на политики, истражувачи и писатели кои работат со големи документи, ова е трансформативна разлика - а не маргинална.
•Директни конкуренции. Во независно слепо тестирање со над 100 учесници по рунда, Клод победи во четири од осум категории на предизвици од реалниот свет со разлика од 35 до 54 поени. ChatGPT победи во една категорија. Јазот во перформансите, особено во задачите за пишување, анализа и расудување, сега е добро документиран.
•Транспарентна меморија и контрола на податоци. Системот за меморија на Клод им овозможува на корисниците точно да видат што вештачката интелигенција задржува за нив, да го уредуваат и бришат - ниво на контрола на корисникот што е во остра спротивност со непроѕирните системи за персонализација на други места во индустријата.
Anthropic, исто така, тактички се помести за да го намали триењето при префрлување: лансираше алатка за увоз на меморија што им овозможува на корисниците да го префрлат својот контекст, преференции и историја на разговори од ChatGPT, Gemini и Copilot директно во Claude во една операција. Таа алатка беше лансирана истиот викенд кога Claude го достигна првото место. Тајмингот беше намерен.
Што открива овој момент за управувањето со вештачката интелигенција
Надвор од динамиката на пазарот, настаните од оваа недела изнесоа на површина три забелешки со трајна важност за тоа како се развива, распоредува и управува вештачката интелигенција.
Пазарите можат да реагираат на управувањето, не само на карактеристиките
Доминантната претпоставка во технолошката индустрија беше дека корисниците ги следат можностите и цената. Оваа недела ја оспори таа претпоставка во голем обем. 2,5 милиони луѓе кои ветија дека ќе го напуштат ChatGPT не реагираа првенствено на репер или промена на цените. Тие реагираа на аргумент за управување - на одлуки за тоа кому му служи вештачката интелигенција, што овозможува и какви етички обврски ќе преземе компанијата под притисок. Тоа е нов вид пазарен сигнал и заслужува сериозно внимание од секоја компанија, регулатор и инвеститор што работи во оваа област.
Ерата на стандардната вештачка интелигенција заврши
ChatGPT ја задржува најголемата база на корисници во индустријата. Но, концептот на ChatGPT како автоматски, несомнен прв избор сега е навистина оспорен. Клод, Џемини и други зрели алтернативи повеќе не се прифатливи втори избори во многу категории - тие се, во одредени домени, објективно подобри избори. Движењето #QuitGPT не ја создаде таа реалност, но ја направи видлива и практична за милиони корисници кои сè уште не дејствувале врз основа на своето незадоволство.
Anthropic исто така заслужува внимание
Аналитички би било нецелосно да се заврши тука без да се напомене дека Антропик е исто така комерцијална компанија - компанија со инвеститори, притисоци од одборот и стратешки стимулации кои не исчезнуваат само затоа што една етичка одлука доби јавна пофалба. Клод продолжува да се користи во владини и воени контексти. Линијата помеѓу прифатливото и неприфатливото распоредување на вештачката интелигенција е посложена отколку што може целосно да реши која било политика на компанијата. Точниот одговор на оваа недела не е некритична миграција од една платформа на друга. Тоа е барање за конзистентни, независни и применливи стандарди низ сите распоредувања на вештачката интелигенција - без оглед на тоа која компанија ги гради.
Политичкиот одговор што го бара овој момент
Настаните од оваа недела не се само приказна за потрошувачите. Тие се приказна за управувањето - и тие бараат одговори од управувањето. Четири приоритети се издвојуваат како итни:
1. Независен надзор на воените договори за вештачка интелигенција. Усните гаранции од компаниите за вештачка интелигенција за заштитните мерки во владините договори не се управување. Потребни се извршни рамки, верификација од трета страна и реални механизми за одговорност. Самоконтролата од страна на договорната страна не е замена.
2.Транспарентни стандарди за вештачка интелигенција во спроведувањето на владини мерки. Кога системите за вештачка интелигенција влијаат на одлуките за имиграција, исходите од кривичната правда или подобноста за социјална помош, правичната постапка бара јавно објавување: како функционира алатката, што одлучува, какви се нејзините стапки на грешки и какви механизми за жалба постојат за засегнатите лица. Ова не се опционални објавувања.
3. Правна заштита за конкурентни пазари на вештачка интелигенција. Одмаздничките мерки на администрацијата на Трамп против Anthropic - казнување на компанија за одржување на етички стандарди како одговор на барање за владин договор - поставува преседан кој, доколку не се оспори, создава структурни стимулации за сите компании за вештачка интелигенција да капитулираат пред притисокот од владата. Антимонополските регулатори и демократските институции мора да го земат предвид.
4. Писменоста за вештачка интелигенција како приоритет во демократската инфраструктура. 2,5 милиони луѓе кои смислено реагираа на настаните од оваа недела беа доволно информирани за да дејствуваат. Стотиците милиони кои не беа информирани се подеднакво засегнати од овие одлуки. Затворањето на тој јаз не е проблем на техничкото образование. Тоа е проблем на демократската одговорност што бара инвестиции на ниво на политики.
Вештачката интелигенција што ја избираме е иднината што ја градиме
Движењето #QuitGPT е несовршено. Делумно е водено од политичко усогласување, делумно од нецелосни информации и делумно од емоционални реакции што ги надминуваат основните факти. Но, во својата суштина, тоа е сигнал од милиони луѓе дека очекуваат нешто повеќе од индустријата за вештачка интелигенција отколку импресивни референтни резултати и агресивни цели за раст. Тие очекуваат одговорност. Тие очекуваат транспарентност. Тие очекуваат компаниите што ги градат најзначајните технологии во човечката историја да се однесуваат како таа одговорност да е реална.
Тоа очекување не е наивен идеализам. Тоа е единствената основа врз која всушност може да се изгради доверлив екосистем на вештачка интелигенција. Довербата, откако ќе се скрши на ова ниво, не се обновува преку објавување на подобар модел или поголема рунда на финансирање. Таа се обновува - полека, со напор - преку доследно однесување, транспарентно управување и институции кои ја сметаат власта за одговорна дури и кога тоа е комерцијално скапо.
OpenAI сè уште командува со најголемата база на корисници на вештачка интелигенција во светот. Исходот од оваа недела не е одреден. Но, пораката од 2,5 милиони корисници, доставена за 48 часа, е порака што секоја компанија во оваа индустрија треба внимателно да ја прочита: јавноста обрнува внимание, алтернативите се реални, а цената на етичкиот компромис повеќе не е апстрактна.
Вештачката интелигенција што ја заслужуваме е вештачката интелигенција што колективно ја бараме. Да продолжиме да бараме подобро.
Суад Сефери | Март 2026
- Извори
- The Week (March 3, 2026)
- TechCrunch (March 2, 2026)
- Fortune / Yahoo Finance (March 2, 2026)
- Gizmodo (March 2, 2026)
- The Business Standard (March 4, 2026)
- Tom's Guide (February–March 2026)
- Euronews (March 2, 2026)
- Yahoo Tech (March 5, 2026)
- TheInsaneApp (March 5, 2026)