ntelligence artificielle Pour les articles homonymes, voir Al. Intelligence artificielle (film), e robot humanoïde ASIMO. L’intelligence artificielle est l’intelligence des machines et des logiciels. Cest une discipline scientifique qui recherche des méthodes de création ou simulation de l’intelligence. Sommaire 1 Définition 2 Histoire 3 Intell’gence artificielle forte p g 3. 1 Définition 3. 2 Estimation de fais 3. 3 Diversité des opi 3. Travaux complém 4 Intelligence artificie 4. 1 Estimation de faisabilité 5 Courants de pensée 5. 1 Cognitivisme 5. 2 Connexionnisme 5. 3 Synthèse 6 Différentes facettes 7 Conception de systèmes Utilisation 8. 1 Domaines d’application 8. 2 Jeux vidéo 9 Précurseurs 9. 1 Automates 9. 2 Pensée automatique 10 Questions soulevées 10. 1 Essor OF processus électroniques élaborés et le côté « intelligence » associé à son but d’imiter le comportement.
Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des Images et des scènes), auditive (compréhension du langage parlé) ou par d’autres capteurs, dans la commande d’un robot dans un milieu inconnu ou hostile.
Même si elles respectent globalement la définition de Minsky, il existe un certain nombre de définitions différentes de l’IA qui varient sur deux points fondamentaux3 : Les définitions qui lient la définition de l’IA à un aspect humain de l’intelligence, et celles qui la lient à un modèle idéal d’intelligence, non forcément humaine, nommée rationalité.
Les définitions qui insistent sur le fait que l’IA a pour but d’avoir toutes les apparences de l’intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du système d’IA doit ressembler également à celui de l’être humain u être rationnel. Histoire Article détaillé : Histoire de l’intelligence artificielle. Deep Blue, le premier ordinateur à battre un champion du monde d’échecs en titre.
L’origine de l’intelligence artificielle se trouve probablement dans l’article d’Alan Turing « Computing Machinery and Intelligence » (Mind, octobre 1950)4, où Turing explore le problème et propose une expérience maintenant connue sous le nom de test de Turing dans une tentative de définition d’un standard permettant de qualifier une machine de « consciente Il développe cette idée dans plusieurs forums, dans la conférence ? Cintelligence de la machine, une idée hérétique « 5, 33 dans plusieurs forums, dans la conférence « L’intelligence de la machine, une idée hérétique « 5, dans la conférence qu’il donne à la BBC 3e programme le 15 mai 1951 « Les calculateurs numériques peuvent-ils penser ? »6 ou la discussion avec M. H. A. Newman, Sir Geoffrey Jefferson et RB. Braithwaite les 14 et 23 janvier 1952 sur le thème « Les ordinateurs peuvent-ils penser? »7. On considère que l’intelligence artificielle, en tant que domaine de recherche, a été créée à la conférence qui s’est tenue sur le campus de Dartmouth College pendant l’été 19568 ? aquelle assistaient ceux qui vont marquer la discipline.
Ensuite l’intelligence artificielle se développe surtout aux États-Unis à l’université Stanford sous l’impulsion de John McCarthy, au MIT sous celle de Marvin Minsky, à l’université Carnegie-Mellon sous celle de Allen Newell et Herbert Simon et à l’université d’Édimbourg sous celle de Donald Michie. En France, l’un des pionniers est Jacques Pitrat. Intelligence artificielle forte Définition e concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement ntelligent, mais d’éprouver une impression dune réelle conscience de soi, de « vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et « une compréhension de ses propres raisonnements » 9.
L’intelligence artificielle forte a servi de moteur à la discipline, mais a également suscité de nombreux débats. En se fondant sur le constat que la conscience a un support biologique et donc matériel, les scientifiques ne voient généralement pas d’obstacle de principe à créer un jour une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l’IA forte, si à Iheure onsciente sur un support matériel autre que biologique. Selon les tenants de l’IA forte, si à l’heure actuelle il n’y a pas d’ordinateurs ou de robots aussi intelligents que l’être humain, ce n’est pas un problème d’outil mais de conception.
Il n’y aurait aucune limite fonctionnelle (un ordinateur est une machine de Turing universelle avec pour seules limites les limites de la calculabilité), il n’y aurait que des limites liées à l’aptitude humaine à concevoir les logiciels appropriés (programme, base de données… ). Elle permet notamment de modéliser des idées abstraites. Estimation de faisabilité On peut être tenté de comparer la capacité de traitement de l’information d’un cerveau humain à celle d’un ordinateur pour estimer la faisabilité dune IA forte. Il s’agit cependant d’un exercice purement spéculatif, et la pertinence de cette comparaison n’est pas établie. Cette estimation très grossière est surtout destinée à préciser les ordres de grandeur en présence. n ordinateur typique de 1 970 effectuait 1 07 opérations logiques par seconde, et occupait donc – géométriquement – une sorte de milieu entre une balance de Roberval (1 opération logique par seconde) et le cerveau humain (grossièrement 2 x 1014 pérations logiques par seconde, car formé de 2 x 1012 neurones ne pouvant chacun commuter plus de 100 fois par seconde)10; comme on peut le lire sur le lien en référence, l’estimation d’un constructeur est que la puissance brute du cerveau humain serait égalable en 2019, sous réserve que la loi de Moore s’applique usque là. En 2005, un microprocesseur typique traite 64 bits en parallèle (128 dans le cas de machines à double cœur) à une fréquence typique de 2 GHz, ce qui place en puissance brute dans les 1011 4 33 une fréquence typique de 2 GHz, ce qui place en puissance rute dans les 1011 opérations logiques par seconde. En ce qui concerne ces machines destinées au particulier, l’écart s’est donc nettement réduit. En ce qui concerne les machines comme Blue Gene, il a même changé de sens. n article de 201 31 1 examine par plusieurs voies quelle pourrait être la capacité mémoire nécessaire et, selon le mode de calcul, obtient des chiffres très différents : 1 To, 100 To, 2500 To (voir big data), évoquant aussi par jeu 300 Mo, soit 60 MP3 de 3 minutes. Le matériel serait donc maintenant présent. Du logiciel à la mesure de ce matériel resterait à développer. En effet, l’important ‘est pas de raisonner plus vite, en traitant plus de données, ou en mémorisant plus de choses que le cerveau humain12, l’important est de traiter les informations de manière appropriée. L’IA souligne la difficulté à expliciter toutes les connaissances utiles à la résolution d’un problème complexe. Certaines connaissances dites implicites sont acquises par l’expérience et mal formalisables. par exemple, qu’est-ce qui distingue un visage familier de deux cents autres ?
Nous ne savons pas toujours clairement l’exprimer13. L’apprentissage de ces connaissances implicites par l’expérience est exploitée depuis les années 980 (voir Réseau de neurones). Néanmoins, un autre type de complexité apparaît : la complexité structurelle. Comment mettre en relation des modules spécialisés pour traiter un certain type dinformations, par exemple un système de reconnaissance des formes visuelles, un système de reconnaissance de la parole, un système lié à la motivation, à la coordination motrice, au langage, etc. En revanche, une fois un système cognitif conçu et son apprentiss s 3 coordination motrice, au langage, etc.
En revanche, une fois un système cognitif conçu et son apprentissage par l’expérience éalisé, l »‘intelligence » correspondante peut être distribuée en un grand nombre d’exemplaires, par exemple sur les portables dactuaires ou de banquiers pouvant ainsi, comme le rappelle un slogan, dire oui ou non, mais le dire tout de suite grâce à des applications dites de credit scoring. Diversité des opinions Les principales opinions soutenues pour répondre à la question d’une intelligence artificielle consciente sont les suivantes : Impossible : la conscience serait le propre des organismes vivants, et elle serait liée à la nature des systèmes biologiques. Cette position est défendue principalement par des philosophes t des religieux. Problème : Elle rappelle toutefois toutes les controverses passées entre vitalistes et matérialistes, Ihistoire ayant à plusieurs reprises infirmé les positions des premiers.
Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle serait fondée sur des processus quantiques. Cette position est défendue notamment par Roger Penrose. Des algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l’atteinte pratique des calculateurs conventionnels (complexité en au lieu de par xemple, sous réserve d’existence du calculateur approprié). Au- delà de la rapidité, le fait que lion puisse envisager des systèmes quantiques en mesure de calculer des fonctions non-turing- calculables (voir Hypercalcul) ouvre des possibilités qui – selon cet auteur – sont fondamentalement interdites aux machines de Turing.
Problème : On ne dispose pas encore pour 6 3 fondamentalement interdites aux machines de Turing. Problème : On ne dispose pas encore pour le moment d’algorithmes d’IA à mettre en œuvre dans ce domaine. Tout cela reste donc spéculatif. les ordinateurs actuels, mais possible avec des systèmes dont ‘organisation matérielle mimerait le fonctionnement du cerveau humain, par exemple avec des circuits électroniques spécialisés reproduisant le fonctionnement des neurones. Problème : Le système en question répondant exactement de la même façon que sa simulation sur ordinateur – toujours possible – au nom de quel principe leur assigner une différence ? 4 Impossible avec les algorithmes classiques manipulant des symboles (logique formelle), car de nombreuses connaissances sont difficiles à expliciter mais possible avec un apprentissage par l’expérience de ces connaissances à l’aide d’outils tels que des éseaux de neurones formels, dont l’organisation logique et non matérielle s’inspire des neurones biologiques, et utilisés avec du matériel informatique conventionnel. Problème : si du matériel informatique conventionnel est utilisé pour réaliser un réseau de neurones, alors il est possible de réaliser l’IA avec les ordinateurs classiques manipulant des symboles (puisque ce sont les mêmes machines, voir Thèse de Church-Turing). Cette position parait donc incohérente. Toutefois, ses défenseurs (thèse de l’IA forte) arguent que l’impossibilité en question est liée à notre inaptitude à tout programmer de anière explicite, elle n’a rien à voir avec une impossibilité théorique.
Par ailleurs, ce que fait un ordinateur, un système ? base d’échanges de bouts de papier dans une salle immense peut le simuler quelq à base d’échanges de bouts de papier dans une salle immense peut le simuler quelques milliards de fois plus lentement. Or il peut rester difficile à admettre que cet échange de bouts de papiers « ait une conscience b. Voir Chambre chinoise. Selon les tenants de l’IA forte, cela ne pose toutefois pas de problème. Impossible car la pensée n’est pas un phénomène calculable par es processus discrets et finis. Pour passer d’un état de pensée au suivant, il y a une infinité non dénombrable, une continuité détats transitoires. Cette idée est réfutée par Alain Cardon (Modéliser et concevoir une Machine pensante). Possible avec des ordinateurs manipulant des symboles. La notion de symbole est toutefois à prendre au sens large.
Cette option inclut les travaux sur le raisonnement ou l’apprentissage symbolique basé sur la logique des prédicats, mais aussi les techniques connexionnistes telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette dernière pinion constitue la position la plus engagée en faveur de l’intelligence artificielle forte. Des auteurs comme Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing) (voir le test de Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait exactement ce comportement.
Après tout, nous ne pouvons même pas être certains que d’autres consciences que la nôtre, y compris chez des humains, éprouvent réellement quoi que ce soit, si ce n’est par une pétition de rincipe qui spécule que chaque humain se retrouve à l’identique chez tous les autres. On retrouve là le problème connu du solipsisme en philosophie. Travaux com Travaux complémentaires Le mathématicien de la physique Roger Penrose15 pense que la conscience viendrait de l’exploitation de phénomènes quantiques dans le cerveau (voir microtubules), empêchant la simulation réaliste de plus de quelques dizaines de neurones sur un ordinateur normal, d’où les résultats encore très partiels de l’IA. Il restait Jusqu’à présent isolé sur cette question.
Un autre chercheur a présenté depuis une thèse de même esprit quoique oins radicale : Andrei Kirilyukl 6 Cette spéculation reste néanmoins marginale par rapport aux travaux des neurosciences. L’action de phénomènes quantiques est évidente dans le cas de la rétine (quelques quanta de lumière seulement suffisent à une perception) ou de l’odorat, mais elle ne constitue pas une condition préalable à un traitement efficace de l’information. En effet, le traitement de l’information effectué par le cerveau est relativement robuste et ne dépend pas de l’état quantique de chaque molécule, ni même de la présence ou de la connexion de neurones isolés. Cela dit, l’intelligence artificielle est loin de se limiter aux seuls réseaux de neurones, qui ne sont généralement utilisés que comme classifieurs.
Les techniques de résolution générale de problèmes et la logique des prédicatsl 7, entre autres, ont fourni des résultats significatifs et sont exploités par des Ingénieurs et chercheurs dans plusieurs domaines (en particulier depuis Mycin (en) en 1973 pour le diagnostic des maladies du sang). ntelligence artificielle faible La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de lus en plus aut 3 constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l’intelligence, elle semble agir comme si elle était intelligente.
On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing comme ELIZA Ces logiciels parviennent à imiter de façon grossière le comportement d’humains face à d’autres humains ors d’un dialogue. Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public dans son ouvrage Computer Power and Human Reason : si ces programmes « semblent » intelligents, ils ne le sont pas : ELIZA simule très grossièrement un psychologue en relevant immédiatement toute mention du père ou de la mère, en demandant des détails sur tel élément de phrase et en écrivant de temps en temps « Je comprends. « , mais son auteur rappelle il s’agit d’une simple mystification : le programme ne comprend en réalité rien.
Les tenants de l’IA forte admettent que s’il y a bien dans ce cas imple simulation de comportements intelligents, il est aisé de le découvrir et qu’on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d’une machine et celui d’un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l’intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l’intelligence ». Les tenants de l’IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées d 0 3