Les modèles vidéo d’IA tentent d’imiter la physique réelle sans pour autant la comprendre
Les modèles vidéo d'IA tentent d'imiter la physique du monde réel sans toutefois la comprendre.
Tl;dr
- Les générateurs vidéo IA ne comprennent pas les lois de la physique.
- Les modèles peuvent ‘imiter’ la physique mais pas la comprendre.
- La compréhension de l’IA dépend plus de la référence à des exemples similaires que de l’apprentissage de règles universelles.
Les limites de l’intelligence artificielle dans la compréhension des lois de la physique
Il a été découvert que les générateurs vidéo d’Intelligence Artificielle (IA) ne peuvent comprendre les lois fondamentales de la physique simplement en regardant des vidéos. Cette découverte remet en question l’efficacité de ces modèles à apprendre de manière autonome à partir de données visuelles sans intervention humaine.
Une étude révélatrice sur les capacités des IA
Une équipe de scientifiques de la Bytedance Research, de l’Université Tsinghua et du Technion a mis ces modèles à l’épreuve. Ils ont créé une simulation 2D en utilisant des formes et des mouvements simples, et généré des centaines de milliers de mini-vidéos pour entraîner et tester ces modèles. Les résultats ont démontré que les modèles pouvaient « imiter » les lois de la physique, mais pas les comprendre.
De plus, face à des situations nouvelles et imprévues, les modèles ont échoué à agir correctement. Au mieux, ils ont tenté de reproduire l’exemple d’entraînement le plus proche qu’ils pouvaient trouver.
Une hiérarchie claire dans les priorités des modèles
Les chercheurs ont également observé que le générateur vidéo transformait souvent une forme en une autre (par exemple, un carré qui se transforme aléatoirement en balle) ou effectuait d’autres ajustements absurdes. Il est apparu que les priorités du modèle suivent une hiérarchie claire, avec la couleur tenant le rôle le plus important, suivie par la taille, puis la vitesse. La forme a reçu le moins d’importance.
Un défi pour la communauté de l’IA
Comme le dit Bingyi Kang, l’auteur principal de l’étude : « Il est difficile de déterminer si un modèle vidéo a appris une loi au lieu de simplement mémoriser les données« . Cette déclaration met en évidence le fait que l’IA se fie plus à des exemples d’entraînement similaires qu’à l’apprentissage de règles universelles. Et ce, indépendamment de la quantité de données sur lesquelles le modèle s’entraîne. Trouver une solution à ce problème demeure un défi pour toute la communauté de l’IA.