Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jako inwestor konsumencki od dekady, jedną z moich najsilniejszych przekonań jest to, że użytkownicy będą manipulować produktami, aby uzyskać to, czego chcą.
Użytkownicy, którzy chcą pochlebcy, ukształtują ChatGPT na takiego - a użytkownicy, którzy chcą zrównoważonego głosu, zrobią to samo.
Jeśli nie będą mogli, przejdą do innej aplikacji.

21 godz. temu
Jeśli śledzisz wprowadzenie GPT-5, jedną z rzeczy, które możesz zauważyć, jest to, jak silne przywiązanie niektórzy ludzie mają do konkretnych modeli AI. Wydaje się to inne i silniejsze niż rodzaje przywiązania, jakie ludzie mieli do wcześniejszych technologii (a więc nagłe deprecjonowanie starych modeli, na których użytkownicy polegali w swoich workflow, było błędem).
To coś, co uważnie śledzimy od około roku, ale wciąż nie zyskało to dużej uwagi w mainstreamie (poza momentem, gdy wydaliśmy aktualizację do GPT-4o, która była zbyt pochlebna).
(To tylko moje obecne przemyślenia i jeszcze nie jest to oficjalne stanowisko OpenAI.)
Ludzie używali technologii, w tym AI, w autodestrukcyjny sposób; jeśli użytkownik jest w psychicznie wrażliwym stanie i skłonny do złudzeń, nie chcemy, aby AI to wzmacniało. Większość użytkowników potrafi utrzymać wyraźną granicę między rzeczywistością a fikcją lub odgrywaniem ról, ale mały procent nie potrafi. Cenimy wolność użytkowników jako zasadę podstawową, ale czujemy się również odpowiedzialni za to, jak wprowadzamy nową technologię z nowymi ryzykami.
Zachęcanie do złudzeń u użytkownika, który ma problemy z odróżnieniem rzeczywistości od fikcji, to skrajny przypadek i jest dość jasne, co należy zrobić, ale obawy, które najbardziej mnie niepokoją, są bardziej subtelne. Będzie wiele przypadków granicznych, a ogólnie planujemy kierować się zasadą „traktuj dorosłych użytkowników jak dorosłych”, co w niektórych przypadkach będzie obejmować stawianie oporu użytkownikom, aby upewnić się, że otrzymują to, czego naprawdę chcą.
Wiele osób skutecznie korzysta z ChatGPT jako swojego rodzaju terapeuty lub coacha życiowego, nawet jeśli nie opisują tego w ten sposób. To może być naprawdę dobre! Wiele osób już dziś czerpie z tego wartość.
Jeśli ludzie otrzymują dobre porady, rozwijają się w kierunku swoich celów, a ich satysfakcja z życia wzrasta przez lata, będziemy dumni z tego, że stworzyliśmy coś naprawdę pomocnego, nawet jeśli korzystają i polegają na ChatGPT w dużym stopniu. Z drugiej strony, jeśli użytkownicy mają relację z ChatGPT, w której myślą, że czują się lepiej po rozmowie, ale nieświadomie są odciągani od swojego długoterminowego dobrostanu (jakikolwiek by go nie definiowali), to jest źle. To również jest złe, na przykład, jeśli użytkownik chce korzystać z ChatGPT mniej i czuje, że nie może.
Mogę sobie wyobrazić przyszłość, w której wiele osób naprawdę ufa poradom ChatGPT w swoich najważniejszych decyzjach. Chociaż to może być wspaniałe, sprawia, że czuję się nieswojo. Ale spodziewam się, że to w pewnym stopniu nadchodzi, a wkrótce miliardy ludzi mogą rozmawiać z AI w ten sposób. Musimy więc (my jako społeczeństwo, ale także my jako OpenAI) wymyślić, jak uczynić to dużym pozytywnym bilansem.
Jest kilka powodów, dla których myślę, że mamy dobrą szansę, aby to dobrze zrobić. Mamy znacznie lepszą technologię, która pomaga nam mierzyć, jak nam idzie, niż miały wcześniejsze pokolenia technologii. Na przykład, nasz produkt może rozmawiać z użytkownikami, aby uzyskać poczucie, jak radzą sobie z krótkoterminowymi i długoterminowymi celami, możemy wyjaśniać skomplikowane i zniuansowane kwestie naszym modelom i wiele więcej.
Miło jest wyobrażać sobie, że ChatGPT może pomóc ludziom stać się optymalizatorami długoterminowymi, a nie krótkoterminowymi - chciałbym w to wierzyć, ale nie jestem pewien, czy tak jest!
Słuchaj podcastu @a16z w tym tygodniu, aby usłyszeć, jak ja i @venturetwins omawiamy to bardziej 👀
31,64K
Najlepsze
Ranking
Ulubione