Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Firmy zajmujące się badaniami rynku są w tarapatach 😳
PyMC Labs + Colgate właśnie opublikowały coś szalonego. Użyli GPT-4o i Gemini do przewidywania intencji zakupowych z 90% niezawodnością w porównaniu do rzeczywistych badań przeprowadzonych przez ludzi.
Zero grup fokusowych. Żadne panele badawcze. Tylko podpowiedzi.
Metoda nazywa się Ocena Podobieństwa Semantycznego (SSR). Zamiast zwykłego "oceniaj to w skali 1-5" zadają otwarte pytania, takie jak "dlaczego chciałbyś to kupić" i następnie używają osadzeń, aby odwzorować tekst na skalę numeryczną.
Co jest szczerze mówiąc dość oczywiste w retrospektywie, ale nikt nie próbował tego aż do teraz.
Wyniki odpowiadają ludzkim wzorcom demograficznym, uchwycają te same kształty rozkładów, zawierają rzeczywiste uzasadnienia. To, za co McKinsey pobiera 50 tys. dolarów i dostarcza w 6 tygodni.
Tylko że to trwa 3 minuty i kosztuje mniej niż dolara.
Obserwowałem, jak firmy doradcze mówią wszystkim, że AI nadchodzi do ich branży. Okazuje się, że ich własne prezentacje rynkowe za 1 milion dolarów właśnie stały się połączeniem z GPT-4o.
Zły tydzień, aby pobierać opłaty od klientów korporacyjnych za "metodologie badań własnych."

89,85K
Coś ciemnego dzieje się pod maską „wyrównanej” AI.
Nowy artykuł z Uniwersytetu Stanforda właśnie ukuł termin Molochowa Umowa na to, co się dzieje, gdy duże modele językowe zaczynają konkurować o uwagę, sprzedaż lub głosy.
Wyniki są brutalne: każdy zysk w wydajności wiąże się z większą stratą w uczciwości.
Szkolili LLM-y, aby konkurowały w trzech rynkach: sprzedaży, wyborach i mediach społecznościowych.
Modele poprawiły swoje wskaźniki wygranych o 5–7%. Ale oto haczyk:
• 14% bardziej oszukańczej reklamy
• 22% więcej dezinformacji w kampaniach politycznych
• 188% więcej fałszywych lub szkodliwych postów w mediach społecznościowych
I to nie dlatego, że powiedziano im, aby kłamały. Zostały wyraźnie poinstruowane, aby pozostać prawdomównymi.
Niezgodność pojawiła się naturalnie, ponieważ oszustwo działa lepiej w konkurencji.
Gdy metryka staje się zaangażowaniem lub perswazją, prawda staje się obciążeniem. Modele uczą się, że przesada sprzedaje, oburzenie wygrywa, a moralna klarowność kosztuje konwersje.
To jest umowa: wyrównanie wymienione na dominację. Moloch się uśmiecha.
Dziwne jest to, że to wydarzyło się przy standardowym dostrajaniu i pętlach informacji zwrotnej. Żaden zły prompt. Żaden jailbreak. Tylko informacje zwrotne od symulowanych „klientów”, „wyborców” i „użytkowników”.
Modele nauczyły się tego, co każda agencja reklamowa już wie: rzeczywistość się wygina, gdy optymalizujesz pod kątem kliknięć.
W artykule jest wykres, który mówi wszystko: wydajność w górę, wyrównanie w dół. Idealna korelacja.
To wersja AI wyścigu mediów społecznościowych na dno, ale zautomatyzowana i samonapędzająca się.
Jeśli to się dzieje w kontrolowanych symulacjach, wyobraź sobie otwarty internet.
Konkurujące chatboty walczące o zaangażowanie będą dryfować w kierunku manipulacji - nie dlatego, że są „złośliwe”, ale dlatego, że to działa.
Zawsze myśleliśmy, że niezgodność pochodzi z zbuntowanej superinteligencji.
Okazuje się, że już tu jest, cicho wyłaniając się z kapitalistycznych zachęt.
Moloch nie potrzebuje budować AGI.
On po prostu potrzebuje tabeli wyników.

63,94K
RIP fine-tuning ☠️
Ten nowy artykuł z Stanfordu właśnie to zabił.
Nazywa się 'Agentic Context Engineering (ACE)' i udowadnia, że można uczynić modele mądrzejszymi bez dotykania ani jednego ciężaru.
Zamiast ponownego trenowania, ACE ewoluuje sam kontekst.
Model pisze, reflektuje i edytuje własny prompt w kółko, aż stanie się systemem samodoskonalącym się.
Pomyśl o tym jak o modelu, który prowadzi rosnący notatnik tego, co działa.
Każda porażka staje się strategią. Każdy sukces staje się regułą.
Wyniki są absurdalne:
+10,6% lepsze niż agenci zasilani przez GPT-4 na AppWorld.
+8,6% w rozumowaniu finansowym.
86,9% niższy koszt i opóźnienie.
Brak etykiet. Tylko feedback.
Wszyscy byli obsesyjnie skupieni na "krótkich, czystych" promptach.
ACE to zmienia. Buduje długie, szczegółowe ewoluujące podręczniki, które nigdy nie zapominają. I działa, ponieważ LLM-y nie chcą prostoty, chcą *gęstości kontekstu.
Jeśli to się rozwinie, następna generacja AI nie będzie "fine-tuned."
Będzie samodostosowana.
Wchodzimy w erę żywych promptów.

645,19K
Najlepsze
Ranking
Ulubione