Je ne comprends toujours pas vraiment l'algorithme de monte carlo tree search. Mais je trouve cette explication très correcte.
Une réflexion bien plus profonde que ce qu'il semble sur la nature de ce que génèrent les IA, quelles que soient leurs méthodes, et la manière dont on peut le percevoir
Une critique acerbe des générateurs stochastiques. Parce que bon, ne vous leurrez pas, le buzz autour des IA est avant tout autour de ces générateurs
Un article absolument terrifiant sur les motivations des géants du web vers des usages toujours plus coûteux. McLuhan dirait que le média est le message ... Et en un sens il aurait encore raison.
Un article complet et très éclairant sur l'usage que peut faire un professionnel expérimenté d'un générateur stochastique de contenu. C'est très différent, et franchement beaucoup moins impressionnant, que les exemples habituels qu'on voit un peu partout.
Encore une belle histoire sur la merdification à grande vitesse que promettent les LLM
Encore une façon de faire tourner une intelligence artificielle générative sous Windows, qui semble cette fois être fournie directement par une entreprise créant ces outils.
Un état des lieux intéressant des outils utilisables autour des LLM
Une application web pour les entreprises permettant apparement d'héberger vos propres gros modèles de langages. C'est pas mal, et le diagramme d'architecture est curieusement clair.
Une présentation hyper intéressante sur l'IA
Une alternative à GitHub Copilot auto-hébergeable, et avec des intégrations dans nombre significatif d'IDE
Une alternative à LM Studio qui est tout aussi simple, et tout aussi détachée d'internet
Une très belle histoire comparant l'acquisition de connaissances d'un enfant et les LLM. C'est beau.
Evidement qu'à un moment on utilisera les gros réseaux de neurones actuels pou les appliquer à la prévision météo !
Toutefois, dans ce modèle, il me semble que la méthode de densification peut conduire à certains problèmes liés aux effets de site (mais je ne suis pas un assez bon professionnel du domaine pour en être sûr).
En tout cas, les gens de Météo France peuvent s'attendre à être sérieusement disruptés.
L'IA est un outil, et les meilleures utilisations de cet outil ne le montrent pas forcément. Et surtout limiter l'IA aux modèles conversationnels est une erreur de perspective assez triste.
Un module Python permettant d'appeler des LLM grâce à des fonctions "virtuelles". C'est malin, et on sort enfin de la chatification d'internet.
Eh oui, l'IA n'est pas un outil simple à manier ni à comprendre.
Ca commence à être vraiment bien intégré ces histoires d'IA (au coût délirant près)
Les chiffres d'utilisation de RAM de ces systèmes de réseaux de neurones sont franchement impressionnants (et expliquent pourquoi je vois passer certains articles expliquant qu'OpenAI pourrait ne pas passer l'hiver)
Dis donc, ça m'a l'ai d'un usage très propre des intelligences artificielles
Une critique très intelligente des gros réseaux de neurones et du fait qu'ils paraissent intelligents essentiellement parce que les utilisateurs veulent les voir intelligents.
L'objectif de TwitterGPT est simple : lire les tweets d'un utilisateur et en tirer un résumé du profil. Dans mon cas, c'est raisonnablement juste (même si la suggestion de cadeau final est incorrecte). Je me demande en revanche comment ils alimentent ça alors qu'Elon Musk a coupé les vannes des apis (ah, en fait non, il a juste coupé l'accès gratuit)
C'est très bien fait cette petite vidéo, ça montre vraiment très bien à quel point les supporters des NFT de l'ia sont en fait des gens qui ne comprennent pas le sens de l'art mais simplement qui jalousent la créativité.
Un usage raisonnablement intéressant de stable diffusion pour générer des mods Age of empire.
Autant les IA génératrices d'images et de textes ne m'intéressent pas, autant celle-ci me paraît un très bonne nouvelle ((il faudra toutefois que je teste)
Un article extrêmement éclairant sur ce que font les réseaux de neurones profonds
Un site très intéressant pour comprendre les limites de l'intelligence artificielle
Si vous aimez les défis à base d'intelligence artificielle, et que vous voulez aller plus loin que Codingame (je n'ai pas ce niveau, mais j'en connais), ce site est pour vous.
Un article absolument incroyable sur les biais culturels implantés dans les logiciels de génération d'image à base de réseaux de neurones et la socio-géopolitique du sourire. On en apprend autant sur les gens que sur l'IA
Si vous cherchez des intelligences artificielles différentes de ChatGPT et autres, Claude a été créé en alliance entre Quora (mouais), Notion et DuckDuckGo, des partenaires qui me semblent moins éthiquement douteux que Microsoft et autres
Si vous considérez les agents basés sur GPT et leurs principales formes d'expression, la niche écologique qui les décrit le mieux est le parasitisme : produire des flux de données qui ont l'air suffisament crédibles pour qu'il faille plus de ressources pour détecter la copie que pour l'approuver.
Actuellement, les modèles d'IA dont on parle font la première partie, et nous faisons inconsciemment la deuxième
Un catalogue d'IA utilisables dans certains cas. C'est apparement très complet
C'est à la fois amusant, intelligent, et fascinant de voir la logique de seti@home et autres appliquée au machine learning à l'échelle
J'ai l'impression de lire un compte-rendu d'un jeu codingame (c'est normal), et ça me donne une idée sacrément curieuse (parce que, d'une façon très Durning-Krugerienne, j'ai l'impression qu'ils ont loupé quelques trucs)
Comment reconnaître les vraies personnes dans l'avalanche de texte généré qui s'annonce ? A travers les idosynchrasies, les tournures spécifiques (mais aussi, parce que j'écris dans Shaarli, les communautés spécifiques)
Un système de génération de musique basé sur les fameux gros réseaux de neurones. L'idée est intéressante, puisque l'objectif est de générer de la musique d'ambiance (donc pas trop d'implication émotionelle de l'auditeur). Et il y a en plus des chances raisonnables de ne pas tomber sur trop de contenu "similaire" à du contenu initial.
Un toolkit Stable Diffusion utilisable. C'est-à-dire que ce package installe tout ce qui est nécessaire pour générer du texte, des images, à partir de prompts
Un moteur de recherche pour développeur appuyé par une de ces fameuses IA à base de grand modèles de langues
D'une façon intéressante, un collègue nous a raconté ce matin une histoire de l'intelligence artificielle, et je suis sûr que ce site l'aurait fort intéressé.
L'IA s'invite partout - épisode 2547664 : n'écrivez plus vos messages de commits, mais laissez une IA lire votre code pour écrire le commentaire.
GPT3 dans Google Sheets ... Et en plus ça a l'air de rendre de vrais services
Ca semble une très bonne explication de Stable Diffusion
Une petite appli qui utilise GPT-3 pour générer les commandes permettant d'exécuter des actions. C'est peut-être un peu overkill, mais c'est aussi très malin
Un très bon exemple des prodiges de la génération d'image depuis du texte. Ca montre bien, je trouve, la variété des représentations existantes.
Si vous voulez créer des images à partir d'un peu de texte, tels des non-artistes, ça semble un bon point de départ pour Stable Diffusion (l'un des meilleurs modèles à l'heure actuelle)
Un site vous permettant de générer, grâce à l'intelligence artificielle, l'expression rationelle correspondant au texte entré (en anglais)
Ce bot twitter génère des couvertures d'album de metal à partir de mots ... peut-être eux-mêmes choisis au hasard. C'est sacrément évocateur ... et bizarre
Ca me fait réfléchir sur le fait que les IAs soient, par construction, conservatrices/réactionnaires ...
Les "IA" ne comprennent pas ce qu'elles manipulent ...