Liderzy technologiczni, inwestorzy i najgłośniejsi propagatorzy sztucznej inteligencji wpompowują dziesiątki milionów dolarów w polityczne starcia. Stawka jest prosta: kto napisze reguły dla technologii, która - jak przekonują jej zwolennicy - może przestawić gospodarkę na nowe tory, a jak ostrzegają krytycy, może też uderzyć w fundamenty demokracji.
Reklamy uderzające w branżę technologiczną, opłacane przez branżę technologiczną
Nowojorska kampania wyborcza pokazuje ten konflikt jak w soczewce. W niedawnym spocie telewizyjnym na celowniku znalazł się Alex Bores - kandydat Demokratów do Kongresu i były inżynier Palantiru - przedstawiany jako człowiek powiązany z kontrowersyjnymi umowami firmy z amerykańską Służbą Imigracyjną i Celną.
Na ujęciach jego profilu w serwisie LinkedIn lektor sugeruje, że Bores współtworzył rozwiązania wspierające działania służb, które od lat budzą sprzeciw obrońców praw imigrantów. W przekazie pada oskarżenie, że „operacje służby są napędzane technologią Boresa”, a Manhattan „stać na więcej”.
Widzowie nie słyszą natomiast kluczowego szczegółu: atak finansuje superkomitet wyborczy powiązany z Leading the Future (LTF) - nowym, sprzymierzonym z branżą komitetem politycznym, którego celem jest ochrona sztucznej inteligencji przed tym, co założyciele uznają za groźną falę regulacyjnego odwetu.
Leading the Future powołali wpływowi ludzie z branży technologicznej, w tym współzałożyciel Palantiru Joe Lonsdale. Na promowanie kandydatów przychylnych sztucznej inteligencji zadeklarowano już ponad 100 mln dolarów.
Bores, postrzegany dziś na poziomie stanowym jako jeden z bardziej stanowczych zwolenników regulacji AI, nazywa to czystą hipokryzją. Podkreśla, że odszedł z Palantiru właśnie przez współpracę firmy ze służbą imigracyjną, rezygnując z bardzo dochodowej ścieżki kariery - po czym środowisko, które na tych kontraktach zarabiało, ma dziś finansować wymierzone w niego spoty.
Dlaczego giganci sztucznej inteligencji wchodzą do polityki tak szybko
Moment eskalacji nie jest przypadkowy. Po miesiącach dyskusji Kongres i parlamenty stanowe zaczynają przechodzić od deklaracji do konkretnych działań, a społeczna cierpliwość wyraźnie się kończy.
Sondaże Gallupa pokazują, że 8 na 10 Amerykanów oczekuje, iż rząd narzuci wymogi bezpieczeństwa i zasady dotyczące danych w systemach AI - nawet jeśli miałoby to spowolnić rozwój technologii. Lista obaw jest szeroka: od masowych zwolnień po rosnące rachunki za prąd, gdy energochłonne centra danych mnożą się w szybkim tempie.
Hamid Ekbia, stojący na czele Academic Alliance for AI Policy na Uniwersytecie Syracuse, ocenia, że dla firm takich jak Palantir czy OpenAI wybory stały się narzędziem ograniczania ryzyka: zamiast czekać na niekorzystne przepisy, wolą wpływać na to, kto je napisze.
Popularne zajawki, które krążą obok tematu (i rozpraszają uwagę)
- Jeśli twoja zielistka zaczyna mieć suche, brązowe końcówki, to może być wyraźny sygnał, że trzeba zmienić sposób podlewania - wielu ogrodników robi to źle.
- Światowa nowość: laptop chłodzony nie wentylatorem, lecz plazmą.
- Teleskop Jamesa Webba znów zaskakuje: możliwe, że odkryto najwcześniejszą czarną dziurę w znanym Wszechświecie.
- Proste zachowanie, które wiele osób pomija, może wpływać na dobrostan w długim horyzoncie.
- Dzień będzie powoli przechodził w noc podczas najdłuższego całkowitego zaćmienia Słońca w tym stuleciu, widocznego w kilku regionach.
- Drobny nawyk, który sprawia, że codzienność działa sprawniej.
- Futurysta przedstawia nową wizję jutra: po tym, jak przewidział internet i iPhone’a, uważa, że nieśmiertelność może być możliwa w ciągu 5 lat.
- Żaby odporne na jad chwytają i połykają żywe „szerszenie mordercze” w Japonii.
Firmy AI traktują duże wydatki polityczne jak wyprzedzającą polisę na wypadek wrogich przepisów - zwłaszcza przy narastającej złości na kontrakty związane z inwigilacją oraz egzekwowaniem polityki imigracyjnej.
Palantir jako symbol stawki: wzrost wyceny i geopolityczna narracja
Mało która spółka równie dobrze pokazuje, o co toczy się gra, co Palantir. Firma z obszaru obronności i analityki danych skorzystała na boomie AI tak mocno, że jej wycena rynkowa jest dziś ponad dziesięciokrotnie wyższa niż w 2022 r. Jednocześnie sprzedaje swoje oprogramowanie jako przewagę krytyczną zarówno dla administracji publicznej, jak i dla biznesu.
Dyrektor generalny Alex Karp przedstawia sztuczną inteligencję jako wyścig geopolityczny: albo prowadzą w nim Stany Zjednoczone, albo Chiny - a od wyniku mają zależeć także prawa obywatelskie. Taki zero-jedynkowy opis rzeczywistości coraz częściej przenosi się na realia finansowania kampanii.
Mapa pieniędzy: kto wpłaca i do kogo trafiają środki
Z dokumentów składanych w Federalnej Komisji Wyborczej wynika, że powstała gęsta sieć wpłat od elit powiązanych z AI i ich sojuszników:
- Leading the Future zebrało ponad 50 mln dolarów tylko w drugiej połowie 2025 r., w tym 25 mln dolarów od prezydenta OpenAI Grega Brockmana i jego żony oraz 25 mln dolarów od potęgi rynku venture capital Andreessen Horowitz (a16z).
- Osoby związane z Palantirem - Peter Thiel i Alex Karp - wpłaciły w ubiegłym roku sześciocyfrowe kwoty na komitety sprzymierzone z republikańskim kierownictwem w Kongresie.
- Karp przekazał 360 tys. dolarów na wspólne struktury zbiórkowe Joe Bidena i Kamali Harris w 2023 r., by rok później dorzucić 1 mln dolarów dla MAGA Inc. - co pokazuje pragmatyczną, ponadpartyjną taktykę utrzymywania kontaktów z obozem aktualnej władzy.
Dla wielu darczyńców nie chodzi wyłącznie o wyłonienie zwycięzców wyborów, lecz o zaprojektowanie samej architektury regulacyjnej. LTF i inne głosy branży naciskają, by wprowadzić jeden federalny system regulacji AI, który miałby unieważniać ostrzejsze przepisy stanowione w poszczególnych stanach.
Donald Trump podpisał już rozporządzenie wykonawcze, którego celem jest blokowanie nowych stanowych zasad dotyczących AI, a senator z Teksasu Ted Cruz zaproponował ustawę wzmacniającą takie moratorium. Strateg LTF Jesse Hunt przekonuje, że mozaika różnych reżimów stanowych zdławi innowacyjność i odda przewagę rywalom z zagranicy.
Przeciwwaga: Public First finansuje polityków od „twardszych barier”
Równolegle rośnie obóz przeciwny. Nowa inicjatywa Public First, kierowana przez byłego demokratycznego kongresmena Brada Carsona oraz byłego republikańskiego kongresmena Chrisa Stewarta, próbuje zgromadzić środki dla kandydatów opowiadających się za ostrzejszymi zabezpieczeniami.
Public First chce zebrać 50 mln dolarów na wsparcie polityków promujących „odpowiedzialne polityki technologiczne”, które ograniczają szkody i chronią przed najpoważniejszymi ryzykami AI.
Carson podkreśla, że to nie jest program „przeciwko AI”, lecz „za legitymacją” całego sektora: bez wiarygodnych reguł bezpieczeństwa przewiduje społeczną rewoltę, która mogłaby gwałtownie zahamować rozwój branży. Jak mówi, „ludzie już ostrzą widły”.
Public First wskazuje m.in. Boresa jako przykład ustawodawcy, który przesuwa debatę z ogólnych haseł na konkret. Był on autorem nowojorskiej ustawy o odpowiedzialnym bezpieczeństwie i edukacji w zakresie sztucznej inteligencji. Przepisy mają wejść w życie w marcu i zmuszają firmy AI do wdrożenia procedur bezpieczeństwa zaprojektowanych tak, by zapobiegać „krytycznej szkodzie” - np. wsparciu ataków chemicznych lub nuklearnych albo umożliwianiu poważnych przestępstw. Ustawa wprowadza też obowiązek ujawniania poważnych incydentów, takich jak naruszenia bezpieczeństwa czy niebezpieczne awarie systemów.
Pola bitew w wyborach w połowie kadencji: od Albany po Austin
Starcie darczyńców „pro-wzrost” i organizacji stawiających na regulacje ma rozegrać się w kilku kluczowych stanach. Na liście celów LTF oraz jego przeciwników znajdują się: Nowy Jork, Kalifornia, Teksas, Illinois i Ohio.
W Nowym Jorku gubernator Kathy Hochul stara się łączyć wizerunek otwartej na innowacje z twardym podejściem do zabezpieczeń. W przemówieniu o stanie regionu ostrzegła, że stan nie pozwoli, by nowe technologie „podkopały naszą demokrację”.
Na Florydzie republikański gubernator Ron DeSantis zaproponował „Kartę praw obywatela w obszarze AI”. Projekt ma wzmocnić ochronę prywatności, ograniczyć wybrane zastosowania sztucznej inteligencji ze względów bezpieczeństwa narodowego oraz wprowadzić zasady dotyczące budowy centrów danych. DeSantis kpi też z utopijnego myślenia Doliny Krzemowej, przekonując, że deepfake’i w muzyce i wideo nie zamienią się automatycznie w powszechny dobrobyt.
Jednocześnie luźna koalicja - od DeSantisa i byłego stratega Trumpa Steve’a Bannona po niezależnego senatora Berniego Sandersa - sprzeciwia się próbom odebrania stanom prawa do tworzenia własnych reguł dotyczących AI.
Nowy wątek w tle: przejrzystość finansowania i presja na ujawnienia
Coraz częściej spór o regulacje splata się z pytaniem, jak jawne powinny być powiązania finansowe między branżą AI a politykami. Nawet legalne wpłaty mogą stać się politycznie toksyczne, jeśli wyborcy uznają, że prawo powstaje „pod darczyńców”, a nie pod interes publiczny. W praktyce rośnie znaczenie narzędzi śledzących przepływy pieniędzy i żądań, by kandydaci wyjaśniali, dlaczego przyjmują środki od firm czerpiących zyski z kontraktów dotyczących nadzoru lub egzekwowania prawa.
Kolejna oś sporu: centra danych, sieci energetyczne i lokalne zgody
Drugi element, który dokłada paliwa do konfliktu, to infrastruktura. Centra danych dla AI zużywają ogromne ilości energii i wody, a lokalne społeczności zaczynają domagać się twardych warunków: od modernizacji sieci i planów awaryjnych na fale upałów, po wymogi dotyczące gospodarki wodnej. To sprawia, że nawet debaty o „federalnym ujednoliceniu przepisów” zahaczają o bardzo praktyczne kwestie: kto ma ponosić koszty rozbudowy sieci i jakie ograniczenia mogą narzucić samorządy.
Pieniądze Palantiru jako temat kampanii
To, że Palantir stał się politycznym „piorunochronem”, daje przeciwnikom wygodny punkt zaczepienia. W Illinois kandydat do Senatu Raja Krishnamoorthi usłyszał podczas debaty krytykę za przyjęcie w ciągu lat ponad 29 tys. dolarów od dyrektora ds. technologii Palantiru, Shyama Sankara.
Krishnamoorthi twierdzi, że gdy sprawa została nagłośniona, przekazał te środki organizacjom działającym na rzecz praw migrantów. Podobną decyzję mieli podejmować także inni Demokraci.
| Polityk | Stan | Działanie w sprawie darowizn powiązanych z Palantirem |
|---|---|---|
| Raja Krishnamoorthi | Illinois | Przekazanie wpłat od dyrektora ds. technologii Palantiru organizacjom wspierającym prawa migrantów |
| John Hickenlooper | Kolorado | Przekierowanie dziesiątek tysięcy dolarów od pracowników Palantiru do organizacji broniących praw imigrantów |
| Jason Crow | Kolorado | Oddanie darowizn po medialnej kontroli i nagłośnieniu sprawy |
Sztaby wyborcze coraz częściej odczuwają nacisk aktywistów oraz internetowych zestawień pokazujących największych beneficjentów pieniędzy powiązanych z Palantirem. W efekcie nawet relatywnie niewielkie wpłaty mogą stać się na szlaku wyborczym obciążeniem.
Niepokój wyborców: miejsca pracy, rachunki i niespełnione obietnice
Dla wielu kandydatów sztuczna inteligencja przestaje być futurystycznym hasłem, a staje się tematem „od drzwi do drzwi”. Reed Showalter, demokratyczny prawnik zajmujący się prawem antymonopolowym i kandydat w 7. okręgu Illinois, zwraca uwagę, że zapowiadane „medyczne cuda” wciąż nie przekładają się na codzienność mieszkańców.
Jego zdaniem wyborcy widzą za to rosnące rachunki za prąd i wodę, gdy wielkie centra danych obciążają lokalną infrastrukturę, a do tego dochodzi lęk przed spadkiem płac w miarę rozlewania się automatyzacji.
Chris Stewart, były republikański kongresmen, a dziś jeden z liderów Public First, podkreśla, że przez ponad dekadę w Kongresie rzadko słyszał od wyborców pytania o ceny energii. Teraz, wraz z rozbudową infrastruktury danych dla AI, spodziewa się, że kandydaci będą pytani o to wprost - i będą musieli mieć gotowe, konkretne odpowiedzi.
Kluczowe pojęcia, które wyborcy będą słyszeć najczęściej
Wojna o pieniądze wokół AI jest pełna żargonu, który potrafi przykryć sedno sporu. Kilka terminów ma szczególne znaczenie:
- Federalne wyparcie prawa stanowego: firmy technologiczne zabiegają o jedną, krajową ustawę o AI, która unieważniałaby surowsze regulacje wprowadzane przez stany. Zwolennicy mówią o prostszej zgodności z prawem; przeciwnicy - o odebraniu społecznościom kontroli.
- Protokoły bezpieczeństwa: wewnętrzne zasady, które firmy AI muszą wdrożyć, by ich systemy nie mogły zostać użyte do poważnych szkód, np. projektowania broni biologicznej lub planowania cyberataków.
- Ryzyko dla infrastruktury krytycznej: ponieważ centra danych dla AI zużywają dużo energii i wody, regulatorzy obawiają się o stabilność lokalnych sieci, obszary zagrożone suszą oraz odporność systemów podczas fal upałów.
Trzy możliwe ścieżki na najbliższe lata
Na stole leży kilka wariantów rozwoju sytuacji. Jeśli darczyńcy sprzyjający AI dopną celu i utrwalą łagodny federalny reżim, który zablokuje działania stanów, innowacje mogą przyspieszyć. Jednocześnie może narastać polityczny bunt, przed którym ostrzega Carson - zwłaszcza jeśli ludzie zaczną łączyć utratę miejsc pracy i wyższe rachunki z technologią, na którą nigdy nie wyrazili zgody przy urnie.
Jeżeli natomiast grupy takie jak Public First pomogą wybrać ustawodawców stawiających na mocne wymogi bezpieczeństwa i przejrzystości, firmy mogą wdrażać rozwiązania wolniej i ponosić większe koszty. W zamian mogą zyskać zaufanie społeczne i ograniczyć ryzyko katastrofalnego nadużycia, szczególnie w zastosowaniach wrażliwych dla bezpieczeństwa.
Trzeci scenariusz jest najbardziej chaotyczny i plasuje się pośrodku: nieuporządkowana mozaika przepisów stanowych, pozwów oraz rozporządzeń, w której firmy „kupują” sobie najprzychylniejsze jurysdykcje, a regulatorzy nie nadążają z aktualizacjami zasad. W takim układzie polityczne pieniądze stają się jeszcze ostrzejszym narzędziem wpływania na to, kto pisze - i przepisuje - reguły gry.
Dla wyborców, którzy próbują zrozumieć stawkę wyborów w połowie kadencji, praktyczny krok jest jeden: patrzeć nie tylko na deklaracje kandydatów o sztucznej inteligencji, lecz także na listy darczyńców, autorstwo projektów ustaw oraz stanowiska w sprawach takich jak budowa centrów danych czy przekwalifikowanie pracowników. To właśnie tam widać, czy polityk jest bliżej sojuszników AI, jej sceptyków, czy coraz mniej licznej grupy próbującej utrzymać pozycję pośrodku.
Komentarze
Brak komentarzy. Bądź pierwszy!
Zostaw komentarz