Quand Anton Korinek, économiste à l’Université de Virginie et membre de la Brookings Institution, a eu accès à la nouvelle génération de grands modèles de langage tels que ChatGPT, il a fait ce que beaucoup d’entre nous ont fait : il a commencé à jouer avec eux pour voir comment ils pourraient aider son travail.
Il a soigneusement documenté leur performance dans un article en février, notant à quel point ils ont géré 25 « cas d’utilisation », du brainstorming et de l’édition de texte (très utile) au codage (assez bon avec un peu d’aide) en passant par les mathématiques (pas génial).
Lutte pour le pouvoir
ChatGPT a mal expliqué l’un des principes les plus fondamentaux de l’économie, déclare Korinek : « Cela a vraiment mal tourné. » Mais l’erreur, facilement repérable, a été vite pardonnée au vu des bénéfices. « Je peux vous dire que cela me rend, en tant que travailleur cognitif, plus productif », dit-il. « Il ne fait aucun doute pour moi que je suis plus productif lorsque j’utilise un modèle linguistique. »
Lorsque GPT-4 est sorti, il a testé ses performances sur les mêmes 25 questions qu’il a documentées en février, et il a bien mieux fonctionné. Il y avait moins de cas d’inventer des trucs; il a également fait beaucoup mieux sur les devoirs de mathématiques, dit Korinek.
Lire également – GPT-4 est plus grand et meilleur que ChatGPT, mais OpenAI ne dira pas pourquoi
Étant donné que ChatGPT et d’autres robots d’IA automatisent le travail cognitif, par opposition aux tâches physiques qui nécessitent des investissements en équipement et en infrastructure, une augmentation de la productivité économique pourrait se produire beaucoup plus rapidement que lors des révolutions technologiques passées, explique Korinek. « Je pense que nous pourrions voir une plus grande augmentation de la productivité d’ici la fin de l’année, certainement d’ici 2024 », dit-il.
Qui contrôlera l’avenir de cette technologie étonnante ?
De plus, dit-il, à plus long terme, la façon dont les modèles d’IA peuvent rendre les chercheurs comme lui plus productifs a le potentiel de stimuler le progrès technologique.
Ce potentiel des grands modèles de langage se révèle déjà dans la recherche en sciences physiques. Berend Smit, qui dirige un laboratoire de génie chimique à l’EPFL à Lausanne, en Suisse, est un expert de l’utilisation de l’apprentissage automatique pour découvrir de nouveaux matériaux.
L’année dernière, après qu’un de ses étudiants diplômés, Kevin Maik Jablonka, ait montré des résultats intéressants en utilisant GPT-3, Smit lui a demandé de démontrer que GPT-3 est, en fait, inutile pour les types d’études sophistiquées d’apprentissage automatique que son groupe fait. prédire les propriétés des composés.
« Il a complètement échoué », plaisante Smit.
Il s’avère qu’après avoir été peaufiné pendant quelques minutes avec quelques exemples pertinents, le le modèle fonctionne aussi bien que des outils d’apprentissage automatique avancés spécialement développé pour la chimie pour répondre à des questions de base sur des choses comme la solubilité d’un composé ou sa réactivité. Donnez-lui simplement le nom d’un composé et il peut prédire diverses propriétés en fonction de la structure.