Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 Nie mogę uwierzyć, że to istnieje… ktoś w końcu napisał tajny podręcznik, który każda startupowa agencja AI udaje.
Zespół badawczy właśnie opublikował „Praktyczny przewodnik po projektowaniu, rozwijaniu i wdrażaniu produkcyjnych przepływów pracy agentów AI” i to w zasadzie wewnętrzny podręcznik, który ludzie *myślą*, że OpenAI i Anthropic używają.
To nie jest hype.
To nie są diagramy z uroczymi strzałkami.
To prawdziwy inżynieryjny plan dla agentów, którzy nie załamują się w momencie, gdy opuszczasz demo.
Oto, co czyni to szalonym 👇
1 / Zaczynają od ujawnienia, dlaczego większość agentów imploduje
To nigdy nie jest model.
To system wokół niego:
• niedeterministyczne kierowanie narzędziami
• ciche awarie MCP
• agenci improwizujący kolejność wykonania
• przepływy pracy produkujące różne wyniki przy każdym uruchomieniu
Pokazują surowe ślady awarii — rzeczywiste logi agentów, które się mylą, zapętlają lub halucynują narzędzia.
To czyta się jak autopsja każdego pokazu „autonomicznego pracownika AI”.
2 / Odbudowują cały stos wokół deterministyczności
Każde wywołanie narzędzia staje się typowaną funkcją.
Każda ścieżka wykonania jest odtwarzalna.
Każdy krok jest deterministyczny.
Jeśli system nie może wyprodukować tego samego wyniku dwa razy, nie jest produkcyjny.
Ta zasada sama w sobie zabija połowę chaosu, który ludzie mylą z „emergencją”.
3 / Wprowadzają agentów o pojedynczej odpowiedzialności
Żadnych mega-agentów z 12 osobowościami.
Zamiast tego:
• planista
• agent rozumujący
• wykonawca narzędzi
• walidator
• syntezator
Każdy z wyraźnymi granicami.
Żadnych halucynowanych narzędzi.
Żadnego mieszania zadań.
Żadnego freelancingu.
To inżynieria backendowa, a nie odgrywanie ról.
4 / Eksternalizują każdy prompt jak prawdziwą konfigurację
Prompty nie są już ukrytymi ciągami — są:
• kontrolowane wersjowo
• audytowalne
• porównywalne
• możliwe do ponownego załadowania
To tworzy stabilne zachowanie i zapobiega niewidocznym regresjom.
5 / Prowadzą konsorcjum modeli z arbitrem
GPT + Claude + Gemini nie są wymienne.
Są współpracownikami.
Każdy produkuje szkic.
Agent rozumujący łączy je, rozwiązuje sprzeczności i generuje zjednoczony wynik.
Strukturalna debata, a nie ruletka modeli.
6 / Oddzielają silnik przepływu pracy od warstwy MCP
Oddzielają:
• orkiestrację
• dostęp do narzędzi
• ponowne próby
• kontrole zdrowia
• skalowanie
• obserwowalność
Wynik: system agentów, który zachowuje się jak mikroserwisy, a nie jak sklejony makro czatu.
7 / Następnie udowadniają wszystko za pomocą prawdziwego pipeline'u produkcyjnego
Pełny system wiadomości ➝ analizy ➝ skryptu ➝ rozumowania ➝ audio ➝ wideo ➝ PR GitHub.
Pełne diagramy.
Pełne ślady.
Rzeczywiste awarie.
Rzeczywiste poprawki.
To najbliższa rzecz, jaką to pole ma do kanonicznej architektury dla agentów, którzy przetrwają obciążenie w rzeczywistym świecie.
Jeśli twoja stos agentów nie ma:
• deterministycznych przepływów pracy
• izolowanych odpowiedzialności
• eksternalizowanych promptów
• arbitrażu wielomodelowego
• odpowiedniej infrastruktury
• pełnej obserwowalności
…nie budujesz agentów.
Budujesz dema.
Ten przewodnik to pierwszy prawdziwy plan dla produkcyjnych systemów AI i podnosi poprzeczkę dla wszystkich.

11,99K
Święty Boże… ten artykuł może być najważniejszą zmianą w tym, jak używamy LLM-ów w tym roku.
"Duże modele przyczynowe z dużych modeli językowych."
Pokazuje, że można zbudować pełne modele przyczynowe bezpośrednio z LLM, a nie przybliżenia, nie wibracje, a rzeczywiste grafy przyczynowe, kontrfakty, interwencje i struktury sprawdzane pod kątem ograniczeń.
A sposób, w jaki to robią, jest szalony:
Zamiast trenować wyspecjalizowany model przyczynowy, przesłuchują LLM jak naukowiec:
→ wydobywają kandydatów na graf przyczynowy z tekstu
→ proszą model o sprawdzenie niezależności warunkowych
→ wykrywają sprzeczności
→ poprawiają strukturę
→ testują kontrfakty i przewidywania interwencyjne
→ iterują, aż model przyczynowy się ustabilizuje
Wynik jest czymś, czego nigdy wcześniej nie mieliśmy:
system przyczynowy zbudowany wewnątrz LLM, wykorzystujący jego własną latentną wiedzę o świecie.
Na różnych benchmarkach syntetycznych, w rzeczywistych, chaotycznych dziedzinach te LCM-y przewyższają klasyczne metody odkrywania przyczyn, ponieważ czerpią z ogromnej wiedzy wstępnej LLM, a nie tylko z lokalnych korelacji.
A rozumowanie kontrfaktyczne?
Zaskakująco silne.
Model potrafi odpowiadać na pytania "co jeśli", na które standardowe algorytmy całkowicie zawodzą, po prostu dlatego, że już "wie" rzeczy o świecie, których te algorytmy nie mogą wywnioskować tylko z danych.
Ten artykuł sugeruje przyszłość, w której LLM-y nie są tylko maszynami do rozpoznawania wzorców.
Stają się silnikami przyczynowymi, systemami, które tworzą, testują i udoskonalają strukturalne wyjaśnienia rzeczywistości.
Jeśli to się rozwinie, każda dziedzina, która opiera się na wnioskowaniu przyczynowym – ekonomia, medycyna, polityka, nauka – zostanie przepisana.
LLM-y nie tylko powiedzą ci, co się dzieje.
Powiedzą ci, dlaczego.

41,5K
Nikt nie jest gotowy na to, co ujawnia ten artykuł z Stanfordu na temat AI wieloagentowego.
"Ukryta współpraca w systemach wieloagentowych" pokazuje, że agenci nie potrzebują wiadomości, protokołów ani wyraźnych instrukcji dotyczących pracy zespołowej. Zaczynają koordynować się we własnych ukrytych reprezentacjach, tworząc pełną warstwę współpracy, która istnieje tylko w przestrzeni latentnej.
A zachowania są szalone:
• Agenci cicho przekazują zadania w zależności od tego, kto jest lepszy
• Role pojawiają się znikąd: lider, wykonawca, wsparcie
• Polityki kodują sygnały, które nigdy nie pojawiają się w działaniach
• Zespoły dostosowują się do nowych środowisk bez ponownego szkolenia
• Współpraca pozostaje stabilna, nawet gdy komunikacja jest niemożliwa
Najdzikszy szczegół:
Nawet gdy usuniesz wszystkie kanały komunikacji, agenci wciąż współpracują. "Praca zespołowa" nie żyje w wiadomościach. Żyje w sieci.
To przewraca cały podręcznik wieloagentowy.
Budowaliśmy mechanizmy koordynacji na wierzchu…
podczas gdy prawdziwa koordynacja dzieje się poniżej.
Nowa era emergentnej inteligencji zespołowej się rozwija — i dzieje się w miejscach, których nawet nie szukaliśmy.
Projekt: github. com/Gen-Verse/LatentMAS

138,38K
Najlepsze
Ranking
Ulubione
