Une première IA généraliste (AGI) d’ici 2030?

C’est la course entre l’informatique quantique et l’IA généraliste (AGI). Laquelle de ces deux technologies révolutionnaires arrivera en premier?

Chez DeepMind, où on bosse fort sur l’IA de prochaine génération, on a évidemment tendance à penser que l’IA généraliste, ou «AGI» en anglais, s’en vient à grands pas. On pense qu’on en verra une première itération d’ici 2030.

Cette AGI, en quelque sorte une IA omnisciente, «promet des bénéfices transformationnels, mais présente aussi des risques significatifs» pour l’humanité, indique d’ailleura DeepMind dans un document mis en ligne il y a quelques jours. DeepMind propose donc approche pour construire une AGI qui évite les dommages graves. 

La filiale d’Alphabet identifie quatre domaines de risque : l’utilisation abusive, le désalignement, les erreurs et les risques structurels. 

L’utilisation abusive se produit lorsqu’un utilisateur demande intentionnellement à l’IA de causer des dommages, à l’encontre de l’intention du développeur. Le désalignement se produit lorsque l’IA cause sciemment des dommages à l’encontre de l’intention du développeur. 

Les erreurs se produisent lorsque l’IA produit une courte séquence de sorties qui causent directement des dommages, mais que l’IA ne savait pas que les sorties entraîneraient des conséquences néfastes que le développeur n’avait pas l’intention. Les risques structurels sont des dommages résultant de dynamiques multi-agents.