Przejdź do treści

Chiny wskrzeszają 50-letnią technologię, która zużywa 200 razy mniej energii niż cyfrowa.

Naukowiec w laboratorium trzyma mikroprocesor; w tle oscyloskop, laptop i mikroskop.

W laboratoriach w Pekinie cicho radykalny układ scalony podważa przekonanie, że sztuczna inteligencja musi pożerać prąd, żeby się rozwijać.

Ten eksperymentalny procesor z Uniwersytetu Pekińskiego porzuca tradycyjną logikę binarną i wraca do starszego, analogowego sposobu obliczeń - obiecując SI, która działa szybciej, zużywając ułamek energii potrzebnej dzisiejszym topowym GPU.

Chiny stawiają na analog, by przebić energetyczną ścianę SI

Postęp SI w ostatniej dekadzie napędzały coraz większe centra danych wypełnione prądożernymi procesorami graficznymi. Każdy kolejny model potrzebuje więcej krzemu, więcej chłodzenia i więcej energii elektrycznej niż poprzedni.

Chiński zespół stojący za nowym układem twierdzi, że ta trajektoria uderza w ścianę. Utrzymują, że ich analogowy procesor SI wykonuje niektóre zadania 12 razy szybciej niż zaawansowane układy cyfrowe, zużywając przy tym około 1/200 energii.

Układ SI, który jest jednocześnie szybszy i 200 razy bardziej efektywny, nie tylko obniżyłby rachunki - przepisałby na nowo ekonomię obliczeń na dużą skalę.

Praca, kierowana przez badacza Sun Zhonga z Uniwersytetu Pekińskiego i opublikowana w Nature Communications, nie ma na celu zastąpienia wszystkich procesorów cyfrowych. Zamiast tego celuje w jedne z najbardziej energochłonnych operacji matematycznych leżących w sercu współczesnej SI.

Co oznacza „analog”, gdy twój telefon jest w pełni cyfrowy

Zanim dominację przejęła elektronika cyfrowa, inżynierowie budowali komputery analogowe wykorzystujące napięcia, prądy i obracające się wały do modelowania układów fizycznych. Były duże i ograniczone, a jednak zaskakująco skuteczne w konkretnych zadaniach, takich jak balistyka czy systemy sterowania.

Nowy chiński układ wraca do tego dziedzictwa, wykorzystując współczesne materiały i układy w skali nanometrowej.

Czym różni się obliczanie analogowe od tego w laptopie

Układy cyfrowe przedstawiają wszystkie informacje jako ciągi zer i jedynek. Każdą operację rozbija się na wiele małych kroków wykonywanych sekwencyjnie przez bramki logiczne.

  • Procesor cyfrowy dzieli każde obliczenie na taktowane, uporządkowane operacje.
  • Układ analogowy używa ciągłych sygnałów elektrycznych, pozwalając naturze wykonać wiele operacji naraz.

W analogowym układzie SI wartości koduje się jako napięcia lub prądy. Gdy takie sygnały płyną przez starannie zaprojektowaną sieć elementów, fizyka obwodu wykonuje matematykę „jednym przebiegiem”.

Ta równoległość - połączona z brakiem konieczności przełączania miliardów pojedynczych tranzystorów na każdym etapie - tłumaczy dramatyczne oszczędności energii.

Dlaczego analog wyszedł z mody, a potem wrócił

Klasyczne maszyny analogowe wyszły z użycia, bo były trudne do programowania, trudne do rekonfiguracji i podatne na szum oraz dryf. Systemy cyfrowe natomiast znakomicie skorzystały z Prawa Moore’a i dawały precyzyjne, powtarzalne wyniki.

Kilka trendów zmienia dziś bilans:

  • Skalowanie tranzystorów daje malejące korzyści, przez co czysta cyfrowa „siła brutto” jest mniej atrakcyjna.
  • Obciążenia SI tolerują drobne błędy numeryczne, co pasuje do niedoskonałej natury analogu.
  • Nowe techniki wytwarzania poprawiają stabilność i kalibrację obwodów analogowych.

Układ z Uniwersytetu Pekińskiego znajduje się dokładnie na tym przecięciu: wymienia odrobinę precyzji numerycznej na ogromne przyrosty szybkości i efektywności w zadaniach typowych dla SI.

Układ zaprojektowany pod realne obciążenia SI, a nie tylko równania z laboratorium

Wiele wcześniejszych analogowych prototypów utknęło na „zabawkowych” problemach. Ten celuje w dane ze świata rzeczywistego. Badacze testowali go na systemach rekomendacyjnych - aplikacji-wole roboczym internetowych gigantów.

Pomyśl o algorytmach, których Netflix, Amazon czy TikTok używają, by podpowiadać, co możesz obejrzeć, kupić albo przewinąć dalej. W tle mielą ogromne macierze historii użytkowników i cech treści. Taki typ obciążeń jest skrajnie wymagający zarówno pod względem pamięci, jak i obliczeń.

W tych zadaniach rekomendacyjnych chiński układ analogowy przetwarzał zbiory danych porównywalne rozmiarem do używanych w platformach komercyjnych. Dostarczał wyniki znacznie szybciej niż zaawansowany sprzęt cyfrowy, a zużycie energii ograniczał do niewielkiego ułamka.

Zespół przetestował też kompresję obrazów. Tutaj układ odtwarzał skompresowane obrazy z jakością wizualną zbliżoną do konwencjonalnych metod cyfrowych o wysokiej precyzji, jednocześnie o połowę zmniejszając wymagania magazynowania danych w przypadkach testowych.

SI często nie potrzebuje idealnej arytmetyki; potrzebuje wyników „wystarczająco dobrych”, szybko i tanio - a obwody analogowe świetnie działają w takim reżimie.

Ukryta sztuczka matematyczna: nieujemna faktoryzacja macierzy

W centrum tego postępu jest technika o niezgrabnej nazwie: nieujemna faktoryzacja macierzy (non-negative matrix factorisation), czyli NMF.

Co NMF faktycznie robi

Wyobraź sobie ogromny arkusz liczb - użytkownicy i filmy, klienci i produkty, piksele i poziomy jasności. NMF próbuje rozłożyć tę dużą macierz na dwie mniejsze, łatwiejsze do interpretacji, przy ograniczeniu, że wszystkie wartości pozostają nieujemne.

To ujawnia ukryte wzorce:

  • W rekomendacjach może odkrywać bazowe „gusta” lub „tematy”.
  • W obrazach może rozkładać zdjęcie na podstawowe klocki lub cechy.
  • W audio może rozdzielać dźwięki na źródła, np. nuty lub instrumenty.

Na sprzęcie cyfrowym NMF jest kosztowne obliczeniowo, zwłaszcza gdy zbiory danych zawierają miliony wpisów. Pojedyncza analiza może wymagać tysięcy albo milionów iteracyjnych aktualizacji.

Chiński zespół „wbudował” te operacje NMF bezpośrednio w analogową elektronikę, stosując układ typu in-memory, w którym te same elementy jednocześnie przechowują i przetwarzają dane. W efekcie matematyka macierzy zachodzi w jednej fizycznej operacji, a nie jako długa sekwencja instrukcji.

Obliczenia w pamięci: likwidacja korka w ruchu danych

Jednym z największych wąskich gardeł współczesnej SI nie jest czysta moc obliczeniowa, lecz niekończące się przerzucanie danych między pamięcią a procesorami. Każda taka podróż marnuje czas i energię oraz generuje ciepło.

Obliczenia w pamięci przestawiają architekturę tak, by większość obliczeń zachodziła tam, gdzie dane już się znajdują. Analogowy układ NMF realizuje tę filozofię: tablice elementów podobnych do pamięci wykonują operacje, gdy przepływają przez nie prądy.

Architektura Gdzie są dane Gdzie dzieje się matematyka Profil energetyczny
Tradycyjny GPU Pamięć poza układem i w układzie Oddzielne rdzenie cyfrowe Wysoki, przez ciągły ruch danych
Analogowy układ NMF W analogowych tablicach W tych samych tablicach, poprzez fizykę Niski, minimalny ruch danych

To przeprojektowanie nie rozwiązuje każdego problemu SI, ale uderza w najbardziej bolesny element uczenia i wnioskowania na dużą skalę: ruch danych do i z pamięci.

Jak wypada na tle sprzętu klasy Nvidii

GPU Nvidia H100 stał się symbolem obecnej fali SI. Potrafi wykonywać biliony operacji na sekundę, ale zużywa też setki watów na układ i często pracuje w szafach serwerowych pobierających dziesiątki kilowatów.

Zespół z Uniwersytetu Pekińskiego szacuje, że dla zadań typu NMF ich analogowy projekt może działać co najmniej o rząd wielkości szybciej niż takie GPU, zużywając przy tym 1/200 mocy. Niektóre prognozy w materiałach uczelni sugerują nawet 1000-krotne przyspieszenia dla specyficznych konfiguracji, choć te liczby obarczone są licznymi zastrzeżeniami.

Kluczowe jest to, że porównania dotyczą wąskiej klasy obciążeń. Uniwersalne układy cyfrowe wciąż wygrywają elastycznością, precyzją i dojrzałymi ekosystemami oprogramowania. Układ analogowy wygląda bardziej jak wyspecjalizowany akcelerator, który mógłby w przyszłych centrach danych pracować obok CPU i GPU.

Jeśli cyfrowe GPU są ciężarówkami wożącymi wszystko, analogowe akceleratory są pociągami dużych prędkości zbudowanymi pod konkretny tor i ładunek.

Potencjalne zastosowania i wpływ w świecie rzeczywistym

Gdzie taki układ może mieć znaczenie jako pierwszy

Kilka sektorów wyróżnia się jako potencjalni pierwsi beneficjenci, jeśli technologia wyjdzie poza laboratorium:

  • Platformy streamingowe i społecznościowe – szybsze i tańsze rekomendacje dla wideo, muzyki i feedów.
  • Telekomunikacja i sieci brzegowe (edge) – lokalna SI na stacjach bazowych lub routerach przy ścisłych limitach mocy.
  • Monitoring przemysłowy – wykrywanie wzorców w strumieniach czujników bez ciężkiego chłodzenia na miejscu.
  • Obrazowanie medyczne – kompresja i analiza tam, gdzie szpitale nie mogą utrzymywać dużych centrów danych.

Dla operatorów centrów danych 200-krotny wzrost efektywności w części obciążeń mógłby zmniejszyć rachunki za prąd i koszty infrastruktury chłodzenia. Dla regionów chcących zwiększać moce SI bez przeciążania sieci energetycznych jest to równie ważne jak surowa wydajność.

Ryzyka i przeszkody praktyczne

Technologia stoi też przed poważnymi barierami:

  • Szum i precyzja – obwody analogowe zbierają zakłócenia i dryfują wraz z temperaturą, co może pogarszać dokładność.
  • Złożoność produkcji – wytwarzanie i kalibracja dużych tablic analogowych na skalę przemysłową jest trudna.
  • Model programowania – programiści są przyzwyczajeni do kodu cyfrowego, nie do konfigurowania fizycznych macierzy.
  • Standaryzacja – każdy projekt analogowy jest silnie wyspecjalizowany, co spowalnia wzrost ekosystemu.

Jest też wymiar geopolityczny. Rodzima klasa akceleratorów SI, mniej zależna od zachodnich producentów chipów, wpisuje się w chińskie dążenie do samowystarczalności w półprzewodnikach i SI. Może to przyspieszyć finansowanie i wdrożenia, nawet jeśli początkowo technologia pozostanie niszowa.

Co to oznacza dla przyszłości sprzętu SI

Analogowy układ NMF nie oznacza końca obliczeń cyfrowych. Pokazuje raczej przesunięcie w stronę bardziej zróżnicowanych architektur dopasowanych do konkretnych jąder obliczeniowych.

Wkrótce możemy zobaczyć systemy SI, które mieszają:

  • Uniwersalne CPU do logiki sterującej.
  • GPU lub cyfrowe akceleratory do trenowania dużych sieci neuronowych.
  • Analogowe tablice in-memory do faktoryzacji macierzy, bloków uwagi (attention) lub wzorców rekurencyjnych.

Dla zwykłych użytkowników efekt może pojawić się dyskretnie: mądrzejsze rekomendacje na urządzeniach o niskim poborze mocy, funkcje SI w tańszych smartfonach albo usługi chmurowe, które przestaną podnosić ceny tylko po to, by zapłacić rachunek za prąd.

Dla decydentów zmagających się ze śladem węglowym SI sama idea, że „stare” analogowe sztuczki mogą obniżyć zużycie energii o dwa rzędy wielkości, jest rzadkim promykiem dobrych wiadomości w sektorze zwykle definiowanym przez nieustanny wzrost zarówno mocy, jak i popytu.

Komentarze

Brak komentarzy. Bądź pierwszy!

Zostaw komentarz