W LLM (np. w architekturze Transformer), ka偶da potencjalna relacja mi臋dzy tokenami jest ju偶 "wyliczona" przez mechanizm Attention. Kiedy waga zmienia si臋 z 0 na 0.1, nie powstaje nowe po艂膮czenie, a jedynie modyfikowana jest istniej膮ca macierz, kt贸ra od pocz膮tku mia艂a zarezerwowane miejsce w pami臋ci (VRAM). Jakby to napisa膰, w AI architektura jest g臋sta (dense) lub z g贸ry zdefiniowana jako rzadka. Zasoby (pami臋膰) s膮 alokowane statycznie. W m贸zgu po艂膮czenie, kt贸re nie istnieje, fizycznie nie zajmuje miejsca i nie zu偶ywa energii. To jest moim
Zdaniem kluczowe. 5Pojawienie si臋 nowej synapsy to akt "stworzenia" infrastruktury tam, gdzie jej wcze艣niej nie by艂o. M贸zg nie ma "macierzy wszystkiego ze wszystkim", bo musia艂by wa偶y膰 ton臋 i zu偶ywa膰 energi臋 ma艂ej elektrowni.