Essai Critique

CMN4505 32 Éthique et Société de l’information Professeur : Stanislaw Sokolowski Sni* to View La technologie! Innovatrice ou destructrice de l’homme? Un essai critique sur « la machine morale » Par Hugo Nadon 7470872 moralités qu’on applique dans nos usages. On peut donc dire que moralité et technique sont « indissolublement mélangées parce que dans les deux cas, la question rapport des fins et des moyens s’y trouve profondément obscurcie. ? (Latour, p. 4). Ce que Latour dit ici est que les deux sont des méthodes pour arriver à un résultat désiré ou éthique. Puisqu’on sait qu’un outil peut être tilisé de milles façons, soit pour le bien ou le mal, on pourrait dire comme l’a dit Jos De Mul qu’il y a une certaine « délégation du jugement moral et de l’action aux ordinateurs. Selon lui il y a trois types de délégations.

De mon côté, je suis d’accord de l’existence de ces types, mais par contre je me méfie des types « deux » et « trois » car selon moi, ils pourraient nous handicaper et nuirais ? notre humanité. « Le premier type de « délégation » de la moralité aux ordinateurs concerne l’application de valeurs et de normes morales à la conception proprement humaine des systèmes informatiques. ? (De Mul, p. 4). Donc, le premier type est que nos actions technologiques ont une corrélation directe avec nos propres valeurs.

Le système informatique emprunte notre conception de ce qui est moral. « Par l’interdiction d’actions moralement répréhensibles ou l’applicatlon d’actions moralement souhaitables, le système informatique invite l’utilisateur à faire preuve d’un comportement moralement désirable » (De Mul, p. 3). Un exemp l’utilisateur a faire preuve d’un comportement moralement désirable » (De Mul, p. 3). Un exemple serait lorsque nous conduisons une voiture, le système de la voiture est pérationnalisé selon nos sens et notre moralité.

On s’arrête quand quelqu’un est dans notre chemin, la voiture ne peut pas décider d’accélérer et frapper la personne malgré que son système lui permettrait. Elle ne peut pas car elle n’est pas consciente, il faut être conscient pour avoir de la moralité. Ce type de délégation selon moi est à la base de toute actions que nous faisons avec des systèmes technologiques. Le deuxième type de délégation se distingue du premier car « le soin de trouver les moyens adéquats est laissé au programme lui-même. » (De Mul, p. 4-5).

C’est à ce type que je commence à me méfier des systèmes informatiques. Ici, on s’attend à ce que la machine trouve le moyen parfait pour arriver aux fins. Ici, on laisse la machine faire plus de travail moral que nous. Ici on réalise que « la loi morale est dans nos cœurs, certainement mais aussi dans nos dispositifs. »(Latour, p. 10). De Mul a utilisé l’exemple du système médical APACHE Ill pour expliquer ce type. « APACHE Ill est utilisé pour prédire les risques qu’ont les patients d’une unité de soins intensifs de décéder à la suite des maladies dont ils sont atteints. (De Mul, p. ). Un docteur doit se conformer à l’information que le système lui donne dans la tec docteur doit se conformer à l’information que le système lui donne dans la technique de son traitement. II peut être tenue responsable de tout incident ou effets secondaire qui se passe s’il décide d’ignorer les Informations du système. Donc, « il semble évident que l’autonomie morale des êtres humains est limitée ? un degré nettement plus important dans ce deuxième type de délégation que dans le premier » (De Mulr p. ). Ceci d’un point de vue médical peut être utile, mais il ne faut pas oublier «qu’on eut citer de nombreux exemples de désastres techniques et moraux qui furent causés par un mauvais fonctionnement de programmes informatiques. » (De Mul, p. 7). L’exemple utiliser par l’auteur est la série d’accidents survenus à des Airbus A320 à cause d’insectes présents dans l’autopilote. Le pilote aurait pu prendre le contrôle mais il a délégué la responsabilité au système qui a échoué.

C’est dans des scénarios comme cela que je trouve que la délégation aux machines devient de plus en plus dangereuse pour la société. Le troisième type est le plus radical et selon moi le plus angereux. Dans ce type de délégation, « ragent moral humain ne prend plus aucune part à la moralité du système d’information. » (De Mul, p. 9). L’homme dans ce processus perd donc tout contrôle sur les moyens et objectifs de la machine. Dans ce cas, la machine qui n’a aucune conscience est supposée faire preuve de moralité dans son p PAGF faire preuve de moralité dans son processus.

Mais comment fait-elle cela? Latour dit que « la conscience de soi est une condition nécessaire pour considérer qu’une entité agit de façon morale » (Latour, p. 9). Donc les algorithmes crée pour le système evrait être assez pour assurer un fonctionnement moral idéal? « Cauteur décrit un réseau d’électricité intelligent se composant de centrales électriques, d’interrupteurs, de transformateurs, d’objets électroniques, d’ordinateurs ainsi que de constructeurs humains et de consommateurs. ? (De Mul, p. 10). Ce genre de système selon moi nous fait perdre notre autonomie. De Mul est d’accord que la délégation à une machine « dans ce cas non pas des productions de la pensée mais des processus mêmes de la pensée morale et rationnelle sape totalement fautonomie humaine. »(Du Mulr p. 1 1). Si on commence à tout léguer à des ystèmes auto-gérants qui vont commencer à tout faire pour nous sans qu’on ait à intervenir, on avance dans un âge où la machine domine les actions humaines.

Pour revenir sur ce qui a été dit, il est vrai qu’une délégation de moralité est transmise aux systèmes technologiques que nous utilisons dans la société. Ceci est crucial à un certaln point puisque « ces technologies bombardent les êtres humains doffres incessantes de situations jusque-là inouiès : des engagements, des suggestion humains d’offres incessantes de situations jusque-là inouïes : des engagements, des suggestions, des possibilités, des interdictions, es habitudes, des positions, des aliénations, des prescriptions, des calculs, des souvenirs. ? (De Mul, p. 12). Le danger pour la société vient quand le niveau de cette délégation selon moi, est poussé à un extrême comme vue dans les types deux et trois. Ce niveau de délégation ne requiert presque pas d’intervention humaine. « Ce processus s’accompagne d’une peur – telle une ombre – que la technologie ne se retourne contre nous – soit en fonctionnant (trop) bien, sait en dysfonctionnant – et qu’elle n’en vienne à détruire notre humanité ou même l’espèce humaine comme telle. » (De Mu’, p. 2).

Il est donc crucial de ne pas trop se perdre dans l’efficacité et l’ustensilité des machines au point de perdre notre humanité et autonomie. Après tout, « la morale comme la technique sont des catégories ontologiques, des modes d’existence comme l’a si bien dit Gilbert Simondon après Etienne Souriau, et l’humain provient de ces modes, il n’en est pas à l’origine. »(Latour, p. 14-15). Bibliographie : De MUL Jos, «Des machines morales», dans Cités, 2009/3, n. 39, p. 27-38. LATOUR. Bruno, «Morale et technique : la fin des moyens», dans Réseaux, vol. , 18, no 100, 2000, pp. 39-58.