19/01/2025, 16:03
Incontestablement l'IA générative actuelle (peu importe si c'en est une ou pas, tout le monde l'appelle comme ça) semble présenter des limites intrinsèques. Au-delà du gouffre énergétique qu'elle représente, pour de applications souvent récératives, elle ne fait que recréer un schéma "impressionniste", comme je l'ai dit plus haut. Elle tente des trucs et on lui dit si ça correspond à ce qui est attendu, on la recalibre pour faire en sorte qu la production corresponde le mieux possible à l'attendu, tout ça étant géré par des règles de dépendance statistique, une IA générative ne sait pas que "1+1=2" alors qu'on sait déjà faire des codes de calcul formel très évolués. Elle retrouve stastiquement que 1+1=2. Après, rien n'emêche de l'hybrider avec d'autres outils, l'IA reconnaîtrait simplement qu'on lui demande de résoudre un calcul algébrique et envoyant le problème à un outil qui lui donnera le résultat correct. Si ça n'existe pas déjà, il est probable que ça existera très bientôt.
Pour les dessins, l'IA ne connaît pas les règles de perspective, et pour le coup je ne suis pas sûr qu'il existe de logiciel plus intelligent à hybrider pour lui apprendre la perspective. mais statistiquement elle va produire un truc qui respecte une "perspective d'ensemble", tout à fait crédible au premier coup d'oeil. mais on voit vien dans Aventure à roudmeule que le respect des règles de la perspective s'effondre quand on rentre dans le détail. Et franchement j'ai du mal à voir comment les réseaux de neurones pourraient franchir cet obstacle, à savoir l'absence de concepts sous-jacents.
Sauf si... certains scientifiques pensent que c'est effectivement juste une question de puissance de calcul, à savoir que les concepts émergeront d'eux mêmes, avec les liens syntaxiques (ou algébriques) qui permettent de travailler rapidement à l'aide des concepts. C'est du coupune sorte d'expérience grandeur nature (à savoir est-ce qu'elle va engloutir toutes les ressources de l'humanité ?) de savoir si cette propriété d'émergence sera bien vérifiée ou pas. Au bout du bout un gars comme Yuval Noah Harari professe que l'humain n'est rien d'autre qu'une machine de calcul très évoluée, mais intrinsèquement pas différent d'une IA. Si l'émergence se vérifie,ça lui donnea quasiment raison, et je me demande si l'humanité s'en remettra d'ailleurs. Mais ça c'est une autre histoire.
Pour les dessins, l'IA ne connaît pas les règles de perspective, et pour le coup je ne suis pas sûr qu'il existe de logiciel plus intelligent à hybrider pour lui apprendre la perspective. mais statistiquement elle va produire un truc qui respecte une "perspective d'ensemble", tout à fait crédible au premier coup d'oeil. mais on voit vien dans Aventure à roudmeule que le respect des règles de la perspective s'effondre quand on rentre dans le détail. Et franchement j'ai du mal à voir comment les réseaux de neurones pourraient franchir cet obstacle, à savoir l'absence de concepts sous-jacents.
Sauf si... certains scientifiques pensent que c'est effectivement juste une question de puissance de calcul, à savoir que les concepts émergeront d'eux mêmes, avec les liens syntaxiques (ou algébriques) qui permettent de travailler rapidement à l'aide des concepts. C'est du coupune sorte d'expérience grandeur nature (à savoir est-ce qu'elle va engloutir toutes les ressources de l'humanité ?) de savoir si cette propriété d'émergence sera bien vérifiée ou pas. Au bout du bout un gars comme Yuval Noah Harari professe que l'humain n'est rien d'autre qu'une machine de calcul très évoluée, mais intrinsèquement pas différent d'une IA. Si l'émergence se vérifie,ça lui donnea quasiment raison, et je me demande si l'humanité s'en remettra d'ailleurs. Mais ça c'est une autre histoire.