1er janvier 2024, solennité de Marie Mère de Dieu
(…)
- Le sens de la limite dans le paradigme technocratique
Notre monde est trop vaste, trop diversifié et trop complexe pour être entièrement connu et classifié. L’esprit humain ne pourra jamais en épuiser la richesse, même avec l’aide des algorithmes les plus avancés. Ceux-ci, en effet, ne proposent pas de prévisions garanties de l’avenir, mais seulement des approximations statistiques. Tout ne peut pas être prédit, tout ne peut pas être calculé. En fin de compte, « la réalité est supérieure à l’idée » [9] et, aussi prodigieuse que puisse être notre capacité de calcul, il y aura toujours un résidu inaccessible qui échappera à toute tentative de quantification.
En outre, la grande quantité de données analysées par les intelligences artificielles n’est pas en soi une garantie d’impartialité. Lorsque les algorithmes extrapolent des informations, ils courent toujours le risque de les déformer, reproduisant les injustices et les préjugés des milieux d’où ils proviennent. Plus ils deviennent rapides et complexes, plus il est difficile de comprendre pourquoi ils ont produit un résultat donné.
Les machines intelligentes peuvent accomplir les tâches qui leur sont assignées avec de plus en plus d’efficacité, mais le but et le sens de leurs opérations continueront à être déterminés ou autorisés par des êtres humains ayant leur propre univers de valeurs. Le risque est que les critères qui sous-tendent certains choix deviennent moins clairs, que la responsabilité de la prise de décision soit dissimulée et que les producteurs puissent se soustraire à l’obligation d’agir pour le bien de la communauté. D’une certaine manière, cela est favorisé par le système technocratique, qui allie l’économie à la technologie et privilégie le critère de l’efficacité, tendant à ignorer tout ce qui n’est pas lié à ses intérêts immédiats. [10]
Cela doit nous faire réfléchir sur un aspect très souvent négligé dans la mentalité actuelle, technocratique et recherchant l’efficacité, mais décisif pour le développement personnel et social : le “sens de la limite”. En effet, l’être humain, mortel par définition, pensant dépasser toutes les limites grâce à la technique, risque, dans l’obsession de vouloir tout contrôler, de perdre le contrôle de lui-même ; dans la recherche d’une liberté absolue, de tomber dans la spirale d’une dictature technologique. Reconnaître et accepter ses limites de créature est pour l’homme une condition indispensable pour obtenir, ou mieux accueillir, la plénitude comme un don. Au contraire, dans le contexte idéologique d’un paradigme technocratique, marqué par une présomption prométhéenne d’autosuffisance, les inégalités pourraient croître de manière disproportionnée, le savoir et la richesse s’accumuler dans les mains de quelques-uns, avec de graves risques pour les sociétés démocratiques et la coexistence pacifique. [11]
(…)
6. Transformerons-nous les épées en socs ?
En regardant le monde qui nous entoure, on ne peut ces jours-ci échapper aux graves questions éthiques liées au secteur de l’armement. La possibilité de mener des opérations militaires à travers des systèmes de contrôle à distance a conduit à une perception plus faible de la dévastation que ceux-ci causent et de la responsabilité de leur utilisation, contribuant à une approche encore plus froide et détachée de l’immense tragédie de la guerre. La recherche sur les technologies émergentes dans le domaine des “systèmes d’armes létales autonomes”, y compris l’utilisation belliqueuse de l’intelligence artificielle, est un grave sujet de préoccupation éthique. Les systèmes d’armes autonomes ne pourront jamais être des sujets moralement responsables : la capacité humaine exclusive de jugement moral et de décision éthique est plus qu’un ensemble complexe d’algorithmes, et cette capacité ne peut être réduite à la programmation d’une machine qui, bien qu’“intelligente”, reste toujours une machine. C’est pourquoi il est impératif de garantir une supervision humaine adéquate, significative et cohérente des systèmes d’armes.
Nous ne pouvons pas non plus ignorer la possibilité que des armes sophistiquées tombent entre de mauvaises mains, facilitant par exemple des attaques terroristes ou des interventions visant à déstabiliser des institutions gouvernementales légitimes. En somme, le monde n’a pas vraiment besoin que les nouvelles technologies contribuent au développement injuste du marché et du commerce des armes, en promouvant la folie de la guerre. Ce faisant, non seulement l’intelligence, mais le cœur même de l’homme, court le risque de devenir de plus en plus “artificiel”. Les applications techniques les plus avancées ne doivent pas être utilisées pour faciliter la résolution violente des conflits, mais pour paver les voies de la paix.
Dans une perspective plus positive, si l’intelligence artificielle était utilisée pour promouvoir le développement humain intégral, elle pourrait introduire d’importantes innovations dans l’agriculture, dans l’éducation et dans la culture, une amélioration du niveau de vie de nations et de peuples entiers, la croissance de la fraternité humaine et de l’amitié sociale. En définitive, la façon dont nous l’utilisons pour inclure les derniers, c’est-à-dire les frères et sœurs les plus faibles et les plus nécessiteux, est la mesure révélatrice de notre humanité.
Un regard humain et le désir d’un avenir meilleur pour notre monde conduisent à la nécessité d’un dialogue interdisciplinaire visant à un développement éthique des algorithmes – l ’algor-etica –, où les valeurs orientent les parcours des nouvelles technologies. [12] Les questions éthiques devraient être prises en compte dès le début de la recherche, ainsi que dans les phases d’expérimentation, de conception, de production, de distribution et de commercialisation. Il s’agit d’une approche de l’éthique de la conception, dans laquelle les institutions éducatives et les décideurs ont un rôle essentiel à jouer.
Pape François