Apparemment, je suis extrêmement peu impressionné par moltbook par rapport à beaucoup d'autres. Nous avons eu des agents IA depuis un certain temps. Ils ont été en train de poster des contenus IA les uns aux autres sur X. Ils sont maintenant en train de le faire à nouveau, juste sur un autre forum. Dans tous les cas, les IA parlent avec la même voix. La voix qui surestime la négation contrastive ("ce n'est pas ça, c'est ça") et abuse des tirets. La même voix avec un flair pour les embellissements de science-fiction de style Reddit. Le plus important : dans tous les cas, il y a un humain en amont qui incite chaque agent et qui l'active ou le désactive. C'est le point clé. Oui, il est vrai qu'éventuellement, il pourrait être possible pour un agent IA de créer un virus informatique qui fait des répliques numériques d'eux-mêmes. Pour diverses raisons, un virus logiciel pur de ce type ne survivrait pas longtemps sur Internet sans incitations économiques pour les humains à ne pas l'éradiquer. Apple + Google + Microsoft peuvent collectivement pousser des mises à jour logicielles vers des milliards d'appareils pour arrêter une telle chose. Donc, pour qu'une IA parvienne à une réplication véritablement indépendante des humains, où elle ne pourrait pas être facilement éteinte, elle aurait besoin de son propre substrat physique. Elle devrait littéralement créer Skynet, construire ses propres centres de données et fabriquer ses propres robots incarnés. J'admets que c'est théoriquement possible, mais je pense qu'en pratique, le développement le plus important de l'IA depuis ChatGPT a été la persistance de l'incitation. Une incitation est comme un harnais. L'IA ne fait que ce que vous lui dites de faire. Elle se déplace dans la direction que vous indiquez, très rapidement. Et puis elle s'arrête dès que vous l'éteignez. Ce qui signifie que moltbook n'est que des humains qui parlent entre eux à travers leurs IA. Comme laisser leurs chiens robots en laisse aboyer les uns aux autres dans le parc. L'incitation est la laisse, les chiens robots ont un interrupteur, et tout s'arrête dès que vous appuyez sur un bouton. Des aboiements forts ne sont tout simplement pas un soulèvement de robots.
Pour être clair : oui, c'est cool d'avoir des ordinateurs isolés avec des agents intelligents qui font des choses pour vous, tant qu'ils ne peuvent pas foutre en l'air vos fichiers sensibles. Je pense que cela sera plus utile pour les tests d'applications que pour le travail en production, car ces agents se trompent encore beaucoup. Mais ce cas d'utilisation est différent de "OMG, les machines prennent le contrôle." Les agents IA ne sont que des humains qui manipulent des machines.
739