12 private links
Impact de l’IA générative sur la « pensée critique » - Collimateur - Veille pédagonumérique - UQAM
L'usage de l'IA générative a un impact négatif sur la pensée critique, parce que dans la cognition humaine, ce qu'on ne pratique pas s'atrophie. J'en viens à penser à l'IA comme au premier exemple efficace de drogue mémétique (la fondation SCP sera contente de l'apprendre) : l'usage de l'IA générative modifie la perception que ses usagers ont du monde d'une manière durable en diminuant leurs facultés intellectuelles, tout en les mettant dans un monde imaginaire dont ils sont les héros.
J'avoue que j'aimerais bien voir passer ce dashboard au rouge ... Mais je sais aussi qu'elle dure parce que les investisseurs (dans ce cas les gafam) ont des poches sacrément profondes ..
Un article intéressant qui montre que le problème des LLMs, c'est leur usage. Il y a une partie en moi qui voit une analogie avec le fameux "ce ne sont pas les armes à feu qui sont dangereuses, mais les gens", mais effectivement, l'usage politique actuel des llms est bien plus dangereux que les recherches leur ayant donné corps.
Le titre n'est pas vraiment aligné avec le contenu.
Mais la question de la testabilité du code produit par les LLM est légitime, et importante.
Je pense que je vais me servir de ça avec un collègue ...
Heureusement qu'il y a un gars qui a le courage de lire en entier les pavés d'Ed Zitron et d'en retirer le ton assez polarisant. Ca donne une lecture rapide, claire, et terrifiante sur l'état de l'économie de la GenAI. Et merci à Tristant Nitot qui a relayé ça dans sa revue de presse.
Je ne suis pas fan des LLMs, ni des produits les utilisant.
Mais ce document, qui explique les règles de documentation chez Leerob, contient quelques perles.
Une interface d'accès à différents LLM. J'utilise déja Newelle (qui est assez pratique). L'interconnexion à GMail, Slack & co peut sembler une très bonne idée ... Mais je me méfie du système magique qui aurait accès à tout (c'est le coup du "fatal trifecta", pour ceux qui en ont entendu parler). Néanmoins la proposition paraît assez séduisante.
Bon, peut-être que ca va aider la bulle actuelle a se résorber : les chercheurs en IA d'OpenAI ont démontré que les hallucinations des LMs font partie de leurs propriétés mathématiques intrinsèques, et sont donc inévitables (mathématiquement, hein)
L'argument du goût me paraît pertinent : en tant que gourmet de l'informatique, je trouve que l'ia est le mcdo de l'informatique : ça a un goût pas terrible, c'est toxique très rapidement, e on paiera toujours trop cher pour son usage.
Comme toujours un très bon article de Cal Newport, parlant cette fois-ci de la fameuse étude sur l'impact des LLM sur la capacité de concentration.
Une vision absolument révolutionnaire (pour moi) de ce que permet MCP.
Je crois qu'il est temps de commencer à l'écrire sérieusement : les LLM sont une croyance apocalyptique pour l'élite manageriale.
John Oliver met une belle énergie à expliquer le business de la "production de contenu" grâce aux LLM détruit beaucoup trop de choses.
De temps en temps, il y a des idées d'usage de LLM qui sont ... pertinentes
euh ... pardon ?
Un bon résumé sur l'utilité globale des LLM. Globalement, ça n'est pas très utile. (la seule utilité potentielle étant le résumé, mais ça m'est assez inutile puisque je sais lire et synthétiser rapidement). Via Sebsauvage
Si je comprends bien, plus on utilise les LLM, moins on devient critique de leur production. C'est l'effet qu'on voit dans Wall-E avec "le bleu est le nouveau rouge". Il doit y avoir un biais de renforcement compatible avec le côté "je maîtrise, donc je ne me ferai pas avoir". C'est très intéressant d'un point de vue psychologique, mais terrifiant d'un point de vue sociétal.
Un cours complet sur les LLM
La réflexion sur le fait qu'écrire un logiciel soit plus proche de l'écriture d'un texte de loi que d'une discussion est très intéressante, et me fait évidement penser à mes sujets d'architecture