Anonim
Esprit profond

Votre smartphone est incroyable, mais demandez-lui de faire quelque chose pour lequel il n'a pas d'application et il reste là. Sans programmeurs pour écrire des applications, les ordinateurs sont inutiles.

Cela pourrait bientôt changer. DeepMind Technologies, une firme d'intelligence artificielle basée à Londres et acquise par Google cette année, a révélé qu'elle conçoit des ordinateurs qui associent le fonctionnement des ordinateurs ordinaires au fonctionnement du cerveau humain. Ils appellent cet appareil hybride une machine de Turing neurale. L'espoir est qu'il n'aura pas besoin de programmeurs et qu'il se programmera lui-même.

Les réseaux de neurones, qui représentent la moitié de l'architecture informatique de DeepMind, existent depuis des décennies, mais suscitent un regain d'attention à mesure que des ordinateurs plus puissants en tirent parti. L'idée est de scinder le traitement sur un réseau de «neurones» artificiels, de simples unités qui traitent une entrée et la transmettent. Ces réseaux sont efficaces pour apprendre à reconnaître des données et à les classer en catégories. Facebook a récemment formé un réseau de neurones pour identifier les visages avec une précision quasi humaine.

n

Bien que cela soit impressionnant, le revers de la médaille est que les réseaux de neurones ont du mal à s’acquitter de tâches informatiques de base telles que la copie et le stockage de données. «Ces réseaux de neurones qui savent si bien reconnaître les motifs - un domaine traditionnel pour l'homme - ne le font pas aussi bien que ce que votre calculatrice a fait depuis longtemps», déclare Jürgen Schmidhuber de l'Institut de recherche sur l'intelligence artificielle Dalle Molle à Manno, Suisse.

Combler cet écart pourrait vous donner un ordinateur qui fait les deux, et peut donc inventer des programmes pour des situations inédites. L'objectif ultime est une machine dotée de la puissance de calcul d'un ordinateur conventionnel, capable d'apprendre et de s'adapter comme un humain.

La solution de DeepMind consiste à ajouter une grande mémoire externe à laquelle il est possible d'accéder de différentes manières. Le mathématicien Alan Turing s'est rendu compte que celui-ci était un élément clé de l'architecture informatique ordinaire, d'où le nom de Neural Turing Machine (NTM). Cela donne au réseau de neurones quelque chose qui ressemble à la mémoire de travail d’un être humain - la possibilité de stocker et de manipuler rapidement une donnée.

Pour tester cette idée, ils ont demandé à leur MNT d'apprendre à copier des blocs de données binaires reçus en entrée et ont comparé ses performances à celles d'un réseau de neurones plus élémentaire. La MNT a appris beaucoup plus rapidement et pouvait reproduire des blocs plus longs avec moins d’erreurs. Les résultats étaient similaires pour les expériences sur la mémorisation et le tri des listes de données. Lorsque l'équipe a étudié ce que faisait la MNT, elle a constaté que ses méthodes correspondaient étroitement au code qu'un programmeur humain aurait écrit (arxiv.org/abs/1410.5401). Ces tâches sont extrêmement basiques, mais essentielles si de telles machines doivent créer des logiciels sophistiqués.

D'autres chercheurs de Google tentent également d'apprendre aux ordinateurs à apprendre des processus plus complexes. Une équipe a récemment publié les détails d’un réseau de neurones capable d’apprendre à lire un code simple et à l’exécuter sans avoir au préalable appris le langage de programmation nécessaire, un peu comme ajouter avec succès deux nombres sans savoir ce que sont réellement les additions ou les nombres (arxiv.org/ abs / 1410.4615).

L'architecture mixte utilisée par DeepMind semble raisonnable, déclare Chris Eliasmith de l'Université de Waterloo, au Canada. «En tant qu'êtres humains, nous classifions mais nous manipulons également la classification», dit-il. «Si vous voulez construire un ordinateur cognitif comme nous le sommes, il faudra ce type de contrôle.»

Il existe plusieurs raisons pour lesquelles ce domaine de recherche est si chaud en ce moment. «Les ordinateurs numériques se heurtent à un mur», déclare Eliasmith. Il semble que la loi de Moore - la tendance à doubler la capacité des micropuces tous les deux ans - prenne fin, dit-il.