Principal La Technologie 7 choses effrayantes que les robots ont déjà faites qui ont choqué leurs créateurs

7 choses effrayantes que les robots ont déjà faites qui ont choqué leurs créateurs

Votre Horoscope Pour Demain

Il y a un grand débat en cours dans la Silicon Valley sur l'intelligence artificielle et malheureusement les enjeux sont plutôt élevés : allons-nous accidentellement construire une IA super intelligente. qui se retourne contre nous et nous tue ou nous asservit tous ?

date de naissance de porsha williams

Cela peut ressembler au scénario d'un film catastrophe d'été, mais cela a inquiété de très grands noms, d'Elon Musk à la fin Stephen Hawking .

« Disons que vous créez une IA qui s'auto-améliore. cueillir des fraises,' Musk a dit , expliquant ses craintes, 'et il s'améliore de plus en plus dans la cueillette des fraises et des cueillettes et il s'améliore lui-même, donc tout ce qu'il veut vraiment faire, c'est cueillir des fraises. Alors, tout le monde serait des champs de fraises. Champs de fraises pour toujours. Les humains sur le chemin de cette fraise-pacalypse ne seraient qu'un irritant consommable pour l'IA.

Mais les humains ne seraient sûrement pas assez stupides pour concevoir accidentellement une IA. déterminé à transformer toute la civilisation en une ferme de baies géantes? Peut-être pas, mais comme Janelle Shane , un chercheur qui forme des réseaux de neurones, un type d'algorithme d'apprentissage automatique, a récemment noté sur son blog, A.I. Étrangeté , il est tout à fait possible qu'ils le fassent par erreur.

En fait, ce serait loin d'être la première fois que les humains pensent qu'ils construisent des robots pour une seule tâche pour se retourner et découvrir que les robots jouaient le système d'une manière qu'ils n'avaient jamais prévue. Le post fascinant creuse dans la littérature académique pour partager plusieurs exemples de robots devenus fous. Ils sont drôles, intelligents et, pris ensemble, plus qu'un peu effrayants.

1. Qui a besoin de jambes quand on peut culbuter ?

« Un robot simulé était censé évoluer pour voyager le plus rapidement possible. Mais plutôt que d'évoluer sur pattes, il s'est simplement assemblé en une haute tour, puis est tombé. Certains de ces robots ont même appris à transformer leur mouvement de chute en un saut périlleux, ajoutant une distance supplémentaire », écrit Shane.

2. Un robot qui peut cancan.

«Un autre ensemble de robots simulés était censé évoluer vers une forme capable de sauter. Mais le programmeur avait initialement défini la hauteur de saut comme la hauteur du bloc le plus haut, donc - encore une fois - les robots ont évolué pour devenir très grands », explique Shane. 'Le programmeur a essayé de résoudre ce problème en définissant la hauteur de saut comme la hauteur du bloc qui était à l'origine la' la plus basse '. En réponse, le robot a développé une longue jambe maigre qu'il pouvait lancer haut dans les airs dans une sorte de can-can robot.

3. Cachez le test et vous ne pourrez pas l'échouer.

«Il y avait un algorithme qui était censé trier une liste de nombres. Au lieu de cela, il a appris à supprimer la liste, afin qu'elle ne soit plus techniquement non triée », raconte Shane.

4. Les erreurs mathématiques surpassent le kérosène.

«Dans une simulation, les robots ont appris que de petites erreurs d'arrondi dans les calculs de calcul des forces signifiaient qu'ils recevaient un tout petit peu d'énergie supplémentaire avec le mouvement. Ils ont appris à se contracter rapidement, générant beaucoup d'énergie gratuite qu'ils pouvaient exploiter », explique Shane. Hé, c'est de la triche !

5. Une stratégie tic-tac-toe invincible (si destructrice).

Une fois qu'un groupe de «programmeurs a construit des algorithmes qui pouvaient jouer au morpion à distance les uns contre les autres sur un tableau infiniment grand», note Shane. « Un programmeur, plutôt que de concevoir la stratégie de son algorithme, l'a laissé faire évoluer sa propre approche. Étonnamment, l'algorithme a soudainement commencé à gagner tous ses jeux. Il s'est avéré que la stratégie de l'algorithme consistait à placer son coup très, très loin, de sorte que lorsque l'ordinateur de son adversaire essayait de simuler le nouveau plateau considérablement élargi, l'énorme plateau de jeu le ferait manquer de mémoire et s'écraser, perdant le Jeu.'

6. Aucun problème de jeu utile ne reste inexploité.

«Les algorithmes de jeu sur ordinateur sont vraiment bons pour découvrir le type de problèmes de matrice que les humains apprennent généralement à exploiter pour la course de vitesse. Un algorithme jouant à l'ancien jeu Atari Q*bert a découvert un bug jusqu'alors inconnu où il pouvait effectuer une série très spécifique de mouvements à la fin d'un niveau et au lieu de passer au niveau suivant, toutes les plates-formes se mettaient à clignoter rapidement et le joueur commencerait à accumuler un grand nombre de points », explique Shane.

7. Désolé, pilote.

Cet exemple est très haut sur l'échelle de la chair de poule : « Il y avait un algorithme qui était censé comprendre comment appliquer une force minimale à un avion atterrissant sur un porte-avions. Au lieu de cela, il a découvert que s'il appliquait une force « énorme », il déborderait la mémoire du programme et s'enregistrerait à la place comme une très « petite » force. Le pilote mourrait mais, bon, score parfait.

Alors sommes-nous tous condamnés ?

Tous ces éléments réunis suggèrent que les humains sont assez maladroits pour deviner comment les robots résoudront les problèmes que nous leur avons posés, ou même comment ils définiront les problèmes. Cela signifie-t-il que Shane est tout aussi inquiet de créer accidentellement une IA homicide. des suzerains comme Musk ? Pas vraiment, mais pas parce qu'elle est sûre que les programmeurs humains maîtrisent parfaitement les robots qu'ils créent. Au lieu de cela, elle mise sur la paresse des robots pour nous sauver.

« En tant que programmeurs, nous devons faire très très attention à ce que nos algorithmes résolvent les problèmes que nous leur avons demandé de résoudre, sans exploiter les raccourcis. S'il existe un autre moyen plus facile de résoudre un problème donné, l'apprentissage automatique le trouvera probablement », observe-t-elle. « Heureusement pour nous, « tuer tous les humains » est vraiment très difficile. Si « faire un gâteau incroyablement délicieux » résout également le problème et est plus facile que « tuer tous les humains », alors l'apprentissage automatique ira avec le gâteau. »