Tämä on juuri Jevonin paradoksi toiminnassa puhtaimmassa muodossaan. Koska tekoälytokenien kustannukset ovat laskeneet, meillä on nyt varaa käyttää niitä paljon enemmän yhä monimutkaisempiin tehtäviin. Avainasia ei siis ole se, että "tekoäly tulee kalliimmaksi"; Sen sijaan kyse on siitä, että koska se tulee halvemmaksi ja tehokkaammaksi, käytämme sitä enemmän ongelmien ratkaisemiseen paremmin. Lähes jokaisessa samanlaisessa tehtävässä käytämme vain paljon enemmän tokeneita tehtävän suorittamiseen, jotta voimme tuottaa paljon paremman tuloksen. Olipa kyse sitten koodin kirjoittamisesta, terveydenhuollon kysymykseen vastaamisesta tai sopimuksen analysoinnista, käytämme nykyään paljon enemmän tekoälyä tämän työn suorittamiseen, koska tarvitsemme lisäsuorituskykypisteitä. 99-prosenttisesti oikean vastauksen saaminen laillisen sopimuksen parissa työskennellessä eroaa *hyvin* 90-prosenttisesti oikeasta vastauksesta, ja se on helposti 10-100-kertaisen token-lisäyksen arvoinen. Nyt *jossain* vaiheessa alamme saavuttaa tasankoja tietyntyyppisissä tehtävissä, ja sitten tehtäväkohtaiset kustannukset laskevat. Emme esimerkiksi luultavasti tarvitse 100 kertaa enemmän tokeneita kuin nykyään yksinkertaiseen lääketieteelliseen kysymykseen vastaamiseen tai asiakirjan yhteenvedon. Joten lopulta nämä työkuormat tulevat halvemmiksi, kun pystymme hyödyntämään mallien tehokkuushyötyjä. *Mutta* yleinen sykli jatkuu periaatteessa ikuisesti, koska jatkamme vain tekoälyn riman nostamista. Kun tokenit halpenevat edelleen algoritmisten läpimurtojen, GPU-hinnoissa käytävän kilpailun, yleisen laskentatehokkuuden ja avoimen painon vaihtoehtojen vuoksi, löydämme seuraavat tavat käyttää tokeneita. Käytämme paljon enemmän agentteja rinnakkain nopeuttaaksemme tehtäviä, käytämme moniagenttijärjestelmiä vastausten vertailuun ja yhteisymmärrykseen pääsemiseen, ratkaisemme monimutkaisempia tietotyön ongelmia ja meillä on paljon pidempään käynnissä olevia agentteja taustalla. Tekoäly tulee samanaikaisesti aina halvemmaksi ja kalliimmaksi.
108,33K