I.A. : définition restrictive
L’intelligence artificielle (IA), (dans toutes ses composantes) - sous différents paradigmes ou modèles et plateformes tels que LLM[1] (ChatGPT[2]), algorithmes, modèles ou machines d’apprentissage automatique (AutoML), Nobel Turing Challenge (NTC), Open Machine Learning (OpenML), DynaBench (dynamic data collection and benchmarking), logiciels et calculs de haute performance...- est un processus d’informatisation et de virtualisation complexe capable de réflexion, de raisonnement, d’apprentissage et de prise de décision à la manière de l’intelligence humaine, qui, elle-même, n’est pas égale d’une personne à l’autre[3].
I.A. : définition extensive
La numérisation ou la dématérialisation au sens large, c’est la collecte et la manipulation des informations en temps réel. L’algorithme, dérivant du nom d’Al Khawarizmi, le « grand-père de l’informatique », est le premier à avoir systématisé ce mode de calcul[4], qui est un processus arithmétique, de contrôle et de traitement des données pour la résolution d’un problème ou l’obtention d’un résultat.
Algorithme et origine de l’I.A.
Cette méthode scientifique algorithmique était déjà utilisée, sous sa forme primaire ou initiale, en Mésopotamie, sous l’État Babylonien, il y a 3800 ans, pour le calcul et le recouvrement de l’impôt et pour des transactions commerciales, et même probablement en Egypte antique, il y a 4500 ans, pour les mêmes opérations fiscales et commerciales, puisqu’on y appliquait l’arithmétique et la comptabilité pour le recouvrement de l’impôt ; puis un peu plus tard, il y a 2300 ans, l’algorithme d’Euclide calculant le plus grand commun diviseur (PGCD), de deux nombres. Ce même algorithme enrichi, nourri, qui opère encore aujourd’hui dans des domaines aussi variés et différents que le commerce, la finance, l’agriculture, l’industrie, la médecine, l’imagerie médicale, l’optique, l’informatique, la recherche biomédicale, le changement climatique ou les pandémies[5].
Histoire de la recherche, continuité et position de l’I.A.
La recherche scientifique pertinente et opérationnelle ne date pas du vingt-et-unième siècle. Les lois et théorèmes des grands mathématiciens et physiciens dans l’histoire qui peut remonter jusqu’à 2600 ans et revenir jusqu’au vingtième siècle tels que Thalès, Pythagore, Euclide, Archimède, Jabir ibn Hayyan, Al Khawarizmi, Al Kindi, Isaac Newton, Albert Einstein et bien d’autres, sont toujours d’actualité et d’une grande valeur scientifique pour la recherche actuelle[6]. Le fondement même de la recherche scientifique- et la création de l’IA ne se situe nullement en dehors de cette philosophie, de ce but d’intérêt général- est de se mettre au service des humains, au service de la collectivité et pas l’inverse.
L’informatique, la programmation informatique et le raisonnement et l’apprentissage informatiques ne marquent pas une rupture par rapport à la science et à la recherche scientifique d’antan, ils les complètent. En effet, c’est il y a quasiment 1200 ans, bien avant Internet, les applications de réseaux sociaux, de smartphones, de Netflix, de Google Maps (ou PageRank), et de l’intelligence artificielle, que le grand mathématicien Al Khawarizmi a conceptualisé cet ensemble algorithmique[7].
L’algorithme d’I.A.
L’algorithme d’intelligence artificielle est un processus d’apprentissage profond et d’adaptation à des données et des situations complexes, et ce sont précisément les données d’apprentissage et d’adaptation qui le caractérisent, qui le préparent, qui le formatent. Si, mathématiquement et numériquement, pour atteindre un but ou résoudre un problème, l’algorithme classique, procède étape par étape, l’algorithme d’IA, lui génère comment apprendre. Néanmoins, ce n’est aucunement une différence de nature, c’est une différence de degré tout simplement. Et des travaux du grand scientifique Al-Khawarizmi en 830 jusqu’aux travaux d’Alan Turing en 1950 ou ceux de John McCarthy en 1955, sur l’I.A. il n’y a pas non plus une différence de nature, mais une différence de degré seulement. Il y a plus de 2000 ans que la recherche scientifique s’est penchée sur l’idée et la manière de rendre la machine intelligente au service de l’humain et de son évolution. Il y a plus de 2000 ans que les différents courants de pensée, mythologiques, prophétiques, philosophiques, scientifiques, ou artistiques, ont progressivement apporté leur contribution à ce processus d’Intelligence artificielle[8].
Tout récemment encore, dans les années 70, la science-fiction exprimait la peur que la machine asservisse l’Homme. Par exemple Ira Levin publie en 1970 « Un bonheur insoutenable » où l’humanité est dirigée par un ordinateur caché sous les montagnes.
L’I.A. : un palier dans l’accumulation du savoir
L’intelligence artificielle est un processus de raisonnement et d’appropriation numériques des données qui part des données réelles en les transformant, se présente aujourd’hui, comme un degré élevé dans l’apprentissage, la prise de décision, le savoir, la littérature scientifique et la technologie (tekhnologia en grec, il y a plus de 2400 ans). Elle a ainsi ceci de commun avec l’intelligence humaine d’hier et d’avant-hier. Cela n’est pas une rupture dans l’histoire cognitive de l’humanité, et dans la recherche scientifique de la communauté des chercheurs, c’est un palier dans l’accumulation du savoir, du savoir-faire et du faire savoir, depuis la nuit du temps, depuis la civilisation mésopotamienne, il y a 10 000 ans[9].
Rien ne se crée « ex nihilo nihil »
Tout est dit, en réalité, ou presque, et l’on vient trop tard (Jean de La Bruyère 1645-1696), pour prétendre inventer, puisque « ex nihilo nihil », à partir de rien, rien ne se produit, « rien ne naît ni ne périt, disait, il y a sept mille ans, le philosophe grec Anaxagore de Clazomènes, mais des choses déjà existantes se combinent, se séparent de nouveau». Plus tard, le philosophe et chimiste Antoine Lavoisier (1743-1794), disait à peu près la même chose dans cette citation apocryphe, (qui lui a été attribuée), sur la conservation de la matière : «rien ne se perd, rien ne se crée, tout se transforme »[10].
I.A. versus I.H. : intelligence artificielle//intellignce humaine
La recherche scientifique, n’émerge pas du néant, elle s’agrège à partir de particules déjà existantes, se combine, se transforme, s’enrichit ; et l’intelligence artificielle, en tant que composante « robotisante » de la recherche scientifique susceptible d’affecter des réflexions, des attitudes et comportements comparables à l’intelligence humaine, en dépit de toutes ses performances, ne fait pas exception à la règle[11]. Aussi la combinaison de l’intelligence humaine et de l’intelligence artificielle devient-elle de plus en plus une nécessité, vu le contexte international propice à la science, avec tous les travers qui lui sont intimement liés, et à toutes les éventualités : transactions, concurrence, hégémonie, guerres, pandémies[12]…Par ailleurs, l’investissement fédéré de l’ensemble de ces acteurs, individus et institutions : entreprises, universités, bailleurs de fonds, pouvoirs publics, chercheurs et experts…dans ces champs disciplinaires d’I.A., sont encore en retard par rapport à d’autres champs d’investigation[13].
L’I.A. est-elle une arme à double tranchant ?
L’intelligence artificielle est en effet une arme à double tranchant : elle peut être utilisée à des fins bénéfiques ou à des fins maléfiques, voire néfastes et destructives. En fait, c’est « un outil parmi d’autres », un outil technologique « qu’il faut comprendre », et prendre sérieusement en compte, car les risques on les gère, et la prépondérance des activités numériques sur le travail manuel génèrent fatalement des travers, des menaces, des attaques qu’il faut combattre, par les mêmes armes :
combattre le mal I.A. par le bien I.A.[14]. Toutefois, quand « l’abjection humaine » l’emporte sur la grandeur on ne serait pas étonné de voir l’I.A. utilisée à des fins « abjectes ».
On relèvera dans un premier temps les menaces et attaques tels que la cybercriminalité, les problèmes, attaques et e-mails de phishing ou l’hameçonnage, l’imitation artificielle, les risques éthiques et sociaux et manipulations frauduleuses ou criminelles des données[15], et « la fabrique du mensonge » à travers les réseaux sociaux, en ce moment des élections présidentielles aux E.U.A. On soulignera dans un second temps les inconvénients comme le coût élevé de la machine qui est en même temps dénuée d’initiative, d’émotions, de morale, et de créativité, l’absence de contrôle, de transparence et d’amélioration avec l’expérience[16].
S’agissant des avantages on notera particulièrement une programmation et un travail continus sans pause, assistance, économie du temps et qualité de vie, haute productivité avec des activités répétitives, traitement de méga données, accès à l’information, réductions des erreurs et exploration des champs d’investigation difficiles, il peut y avoir innovation et créativité mais jamais atteindre « ce que possède le cerveau humain [17]».
Quel est l’apport de l’I.A. pour la société ?
En guise de conclusion, je terminerai par cette question : quel est l’apport de l’IA dans le secteur public, privé ou semi-public ? À dire autrement : quel est l’apport de l’I.A. pour l’administration, l’entreprise ou les O.N.G ? L’automatisation des tâches est un avantage non négligeable, aussi bien pour l’administration que pour l’entreprise ou les O.N.G., le rôle de l’I.A. dans l’aide à la prise de décision, et par conséquent l’expérience et la personnalisation de l’expérience, et qui dit expérience dit aussi réduction des coûts et des risques et augmentation d’efficacité et d’efficience[18].
L’intelligence artificielle (IA), (dans toutes ses composantes) - sous différents paradigmes ou modèles et plateformes tels que LLM[1] (ChatGPT[2]), algorithmes, modèles ou machines d’apprentissage automatique (AutoML), Nobel Turing Challenge (NTC), Open Machine Learning (OpenML), DynaBench (dynamic data collection and benchmarking), logiciels et calculs de haute performance...- est un processus d’informatisation et de virtualisation complexe capable de réflexion, de raisonnement, d’apprentissage et de prise de décision à la manière de l’intelligence humaine, qui, elle-même, n’est pas égale d’une personne à l’autre[3].
I.A. : définition extensive
La numérisation ou la dématérialisation au sens large, c’est la collecte et la manipulation des informations en temps réel. L’algorithme, dérivant du nom d’Al Khawarizmi, le « grand-père de l’informatique », est le premier à avoir systématisé ce mode de calcul[4], qui est un processus arithmétique, de contrôle et de traitement des données pour la résolution d’un problème ou l’obtention d’un résultat.
Algorithme et origine de l’I.A.
Cette méthode scientifique algorithmique était déjà utilisée, sous sa forme primaire ou initiale, en Mésopotamie, sous l’État Babylonien, il y a 3800 ans, pour le calcul et le recouvrement de l’impôt et pour des transactions commerciales, et même probablement en Egypte antique, il y a 4500 ans, pour les mêmes opérations fiscales et commerciales, puisqu’on y appliquait l’arithmétique et la comptabilité pour le recouvrement de l’impôt ; puis un peu plus tard, il y a 2300 ans, l’algorithme d’Euclide calculant le plus grand commun diviseur (PGCD), de deux nombres. Ce même algorithme enrichi, nourri, qui opère encore aujourd’hui dans des domaines aussi variés et différents que le commerce, la finance, l’agriculture, l’industrie, la médecine, l’imagerie médicale, l’optique, l’informatique, la recherche biomédicale, le changement climatique ou les pandémies[5].
Histoire de la recherche, continuité et position de l’I.A.
La recherche scientifique pertinente et opérationnelle ne date pas du vingt-et-unième siècle. Les lois et théorèmes des grands mathématiciens et physiciens dans l’histoire qui peut remonter jusqu’à 2600 ans et revenir jusqu’au vingtième siècle tels que Thalès, Pythagore, Euclide, Archimède, Jabir ibn Hayyan, Al Khawarizmi, Al Kindi, Isaac Newton, Albert Einstein et bien d’autres, sont toujours d’actualité et d’une grande valeur scientifique pour la recherche actuelle[6]. Le fondement même de la recherche scientifique- et la création de l’IA ne se situe nullement en dehors de cette philosophie, de ce but d’intérêt général- est de se mettre au service des humains, au service de la collectivité et pas l’inverse.
L’informatique, la programmation informatique et le raisonnement et l’apprentissage informatiques ne marquent pas une rupture par rapport à la science et à la recherche scientifique d’antan, ils les complètent. En effet, c’est il y a quasiment 1200 ans, bien avant Internet, les applications de réseaux sociaux, de smartphones, de Netflix, de Google Maps (ou PageRank), et de l’intelligence artificielle, que le grand mathématicien Al Khawarizmi a conceptualisé cet ensemble algorithmique[7].
L’algorithme d’I.A.
L’algorithme d’intelligence artificielle est un processus d’apprentissage profond et d’adaptation à des données et des situations complexes, et ce sont précisément les données d’apprentissage et d’adaptation qui le caractérisent, qui le préparent, qui le formatent. Si, mathématiquement et numériquement, pour atteindre un but ou résoudre un problème, l’algorithme classique, procède étape par étape, l’algorithme d’IA, lui génère comment apprendre. Néanmoins, ce n’est aucunement une différence de nature, c’est une différence de degré tout simplement. Et des travaux du grand scientifique Al-Khawarizmi en 830 jusqu’aux travaux d’Alan Turing en 1950 ou ceux de John McCarthy en 1955, sur l’I.A. il n’y a pas non plus une différence de nature, mais une différence de degré seulement. Il y a plus de 2000 ans que la recherche scientifique s’est penchée sur l’idée et la manière de rendre la machine intelligente au service de l’humain et de son évolution. Il y a plus de 2000 ans que les différents courants de pensée, mythologiques, prophétiques, philosophiques, scientifiques, ou artistiques, ont progressivement apporté leur contribution à ce processus d’Intelligence artificielle[8].
Tout récemment encore, dans les années 70, la science-fiction exprimait la peur que la machine asservisse l’Homme. Par exemple Ira Levin publie en 1970 « Un bonheur insoutenable » où l’humanité est dirigée par un ordinateur caché sous les montagnes.
L’I.A. : un palier dans l’accumulation du savoir
L’intelligence artificielle est un processus de raisonnement et d’appropriation numériques des données qui part des données réelles en les transformant, se présente aujourd’hui, comme un degré élevé dans l’apprentissage, la prise de décision, le savoir, la littérature scientifique et la technologie (tekhnologia en grec, il y a plus de 2400 ans). Elle a ainsi ceci de commun avec l’intelligence humaine d’hier et d’avant-hier. Cela n’est pas une rupture dans l’histoire cognitive de l’humanité, et dans la recherche scientifique de la communauté des chercheurs, c’est un palier dans l’accumulation du savoir, du savoir-faire et du faire savoir, depuis la nuit du temps, depuis la civilisation mésopotamienne, il y a 10 000 ans[9].
Rien ne se crée « ex nihilo nihil »
Tout est dit, en réalité, ou presque, et l’on vient trop tard (Jean de La Bruyère 1645-1696), pour prétendre inventer, puisque « ex nihilo nihil », à partir de rien, rien ne se produit, « rien ne naît ni ne périt, disait, il y a sept mille ans, le philosophe grec Anaxagore de Clazomènes, mais des choses déjà existantes se combinent, se séparent de nouveau». Plus tard, le philosophe et chimiste Antoine Lavoisier (1743-1794), disait à peu près la même chose dans cette citation apocryphe, (qui lui a été attribuée), sur la conservation de la matière : «rien ne se perd, rien ne se crée, tout se transforme »[10].
I.A. versus I.H. : intelligence artificielle//intellignce humaine
La recherche scientifique, n’émerge pas du néant, elle s’agrège à partir de particules déjà existantes, se combine, se transforme, s’enrichit ; et l’intelligence artificielle, en tant que composante « robotisante » de la recherche scientifique susceptible d’affecter des réflexions, des attitudes et comportements comparables à l’intelligence humaine, en dépit de toutes ses performances, ne fait pas exception à la règle[11]. Aussi la combinaison de l’intelligence humaine et de l’intelligence artificielle devient-elle de plus en plus une nécessité, vu le contexte international propice à la science, avec tous les travers qui lui sont intimement liés, et à toutes les éventualités : transactions, concurrence, hégémonie, guerres, pandémies[12]…Par ailleurs, l’investissement fédéré de l’ensemble de ces acteurs, individus et institutions : entreprises, universités, bailleurs de fonds, pouvoirs publics, chercheurs et experts…dans ces champs disciplinaires d’I.A., sont encore en retard par rapport à d’autres champs d’investigation[13].
L’I.A. est-elle une arme à double tranchant ?
L’intelligence artificielle est en effet une arme à double tranchant : elle peut être utilisée à des fins bénéfiques ou à des fins maléfiques, voire néfastes et destructives. En fait, c’est « un outil parmi d’autres », un outil technologique « qu’il faut comprendre », et prendre sérieusement en compte, car les risques on les gère, et la prépondérance des activités numériques sur le travail manuel génèrent fatalement des travers, des menaces, des attaques qu’il faut combattre, par les mêmes armes :
combattre le mal I.A. par le bien I.A.[14]. Toutefois, quand « l’abjection humaine » l’emporte sur la grandeur on ne serait pas étonné de voir l’I.A. utilisée à des fins « abjectes ».
On relèvera dans un premier temps les menaces et attaques tels que la cybercriminalité, les problèmes, attaques et e-mails de phishing ou l’hameçonnage, l’imitation artificielle, les risques éthiques et sociaux et manipulations frauduleuses ou criminelles des données[15], et « la fabrique du mensonge » à travers les réseaux sociaux, en ce moment des élections présidentielles aux E.U.A. On soulignera dans un second temps les inconvénients comme le coût élevé de la machine qui est en même temps dénuée d’initiative, d’émotions, de morale, et de créativité, l’absence de contrôle, de transparence et d’amélioration avec l’expérience[16].
S’agissant des avantages on notera particulièrement une programmation et un travail continus sans pause, assistance, économie du temps et qualité de vie, haute productivité avec des activités répétitives, traitement de méga données, accès à l’information, réductions des erreurs et exploration des champs d’investigation difficiles, il peut y avoir innovation et créativité mais jamais atteindre « ce que possède le cerveau humain [17]».
Quel est l’apport de l’I.A. pour la société ?
En guise de conclusion, je terminerai par cette question : quel est l’apport de l’IA dans le secteur public, privé ou semi-public ? À dire autrement : quel est l’apport de l’I.A. pour l’administration, l’entreprise ou les O.N.G ? L’automatisation des tâches est un avantage non négligeable, aussi bien pour l’administration que pour l’entreprise ou les O.N.G., le rôle de l’I.A. dans l’aide à la prise de décision, et par conséquent l’expérience et la personnalisation de l’expérience, et qui dit expérience dit aussi réduction des coûts et des risques et augmentation d’efficacité et d’efficience[18].
[1]-Les LLM (modèles de langage de grande échelle), tel que ChatGPT qui est lui-même un Chatbot, un système de traitement de langage naturel, conçu par OpenAI, une société américaine opérant en matière d’intelligence artificielle.
[2]-ChatGPT ou « Chat Generative Pre-Treined Transformer » est une forme d’intelligence artificielle.
[3]-ChatGPT : le générateur de texte par I.A., Introducing ChatGPT, nov. 30. 2022, disponible sur le Web ; ChatGPT ou la percée des modèles d’I.A. conversationnels, 6 avr. 2023, Pôle d’expertise de la Régulation Numérique, lire en ligne.
[4]-Muhammad ibn Mussa Al-Khawarizmi, connu généralement sous le nom d’Al-Khawarizmi (780-850), est un grand scientifique et polymathe perse musulman ; parmi les ouvrages qui l’ont fait connaître dans le monde entier : « Abrégé du calcul par la restauration et la comparaison » et « L’algèbre et le calcul indien », ouvrages écrits en arabe. Son « Abrégé sur le calcul par complémentation et équilibrage » traite des règles d’algèbre, des méthodes de calcul des aires, des figures, des volumes, et des cas pratiques comme la succession, le partage des terres ou les transactions commerciales.
[5]-Grégory Coste, Numérisation des données : définition, étapes et avantages pour l’entreprise, 25 févr. 2019, mis à jour le 21 mai 2019, appvizer (comparateur de logiciels), à lire en ligne. L’article traite la numérisation de documents, l’exploitation des données, la dématérialisation, la digitalisation, l’indexation intelligente des données.
[6]- Aujourd’hui l’algorithme est défini comme un processus mathématique constitué d’un nombre fini de paliers ayant pour but la résolution d’un problème d’ordre théorique ou pratique, économique ou social. Les travaux d’Al-Khawarizmi en matière de développement des mathématiques, et sa la conception de la notation décimale, de 1 jusqu’à 0, « les chiffres indo-arabes », fondement du système numérique et par conséquent de la technologie informatique moderne, demeurent indéniablement un apport considérable pour la recherche, la science et l’I.A. en général et l’algorithme de l’IA en particulier, cf. Pourquoi les algorithmes sont-ils appelés algorithmes ? The conversation, à lire en ligne.
[7]-The conversation, rigueur académique, sens journalistique, 30 oct. 2024, en ligne ; Les traitements numériques : comprendre les traitements, les algorithmes, combiner les constructions, que peut faire un ordinateur ? Algorithmes, programmes et applications (machines, algorithmes et langages), correcteur d’orthographe, classification des textes, des programmes et des données, v. Culture numérique, Université de Lille, 42 rue Paul Duez, accessible en ligne ; v. dans le même ordre d’idées J. Chabih, L’authenticité de la recherche scientifique au Maroc, du 9 nov. 2015 et Le contrôle financier au Maroc, notamment la dimension historique, l’article est publié en arabe, le 22 janv. 2020, lire en ligne.
[8]- Qu’est que l’IA ? What-is-artificial-intellignce ? lire en ligne ; « L’histoire de l’IA débute dans l’Antiquité avec des histoires, mythes et rumeurs d’êtres artificiels conçus par des maîtres artisans », Wikipédia ; L’histoire de l’I.A. : de l’Antiquité à ChatGPT, du 27 juin 2024, «au XII siècle, l’inventeur arabe Al-Jazari, s’est fait une spécialité de la création d’automates programmables, les ancêtres de la robotique » ; Dès le 17ème siècle Leibniz a tenté « de formaliser le processus de la pensée humaine », Wikipédia Histoire de l’I.A. ; Histoire de l’intelligence artificielle : création et évolution, 1940 à 2024, lire en ligne.
[9]-Qu’est-ce que l’IA ? What-is-artificial-intelligence? Op.cit.; Moustafa Zouinar, Évolution de l’IA : quels enjeux pour l’activité humaine et la relation humaine-machine au travail ? Open Edition Journals, du 17 janv. 2020. L’article traite de l’évolution récente de l’I.A., de l’automatisation par l’IA (une menace pour le travail humain) et du travail avec des systèmes d’I.A..
[10]-Toutes les composantes du savoir : mythologie, religion, prophétie, philosophie, science et art, avaient, depuis fort longtemps, pris comme objet de leur réflexion l’idée de créer une forme d’intelligence autre que l’intelligence humaine. Ainsi, la mythologie grecque antique avait déjà décrit « un robot géant en bronze appelé Talos, qui gardait l’Île de Crète, en jetant des pierres aux pirates et aux envahisseurs », Mohamad Dia, L’histoire de l’I.A. Les hautes et les bas de l’I.A., de l’Antiquité à nos jours, à lire en ligne.
[11]-L’automatisation par l’IA, serait-elle une menace pour le travail humain ? Quelles sont alors les conséquences de cette robotisation, qui est loin d’être mesurée, pondérée, sur l’emploi et l’activité humaine ? Quelle relation entre l’homme et la machine ? Y-a-il complémentarité ou substitution ? Peut-on conclure qu’il y aurait plutôt une coordination entre le travail manuel et l’action de l’IA dès lors qu’une transformation adéquate s’opère dans le processus de travail manuel, cf. M. Zouinar, Évolution de l’IA, op.cit.
[12]- Andler D., Amblard M. et Blangero A. Intelligence artificielle et humaine sont-elles comparables ? Questions de la cognition humaine, de la conscience et de l’éthique restent posées. I.A. symbolique et I.A. connexionniste, machine et Homme quelle ressemblance ? La question de l’intelligence en tant que telle, l’I.A. doit être au service des humains ; Étude préliminaire sur l’éthique et l’IA, UNESCO et COMEST, les questions posées sont l’éthique et la robotique, les implications éthiques de l’internet des objets, les composantes de l’éthique : éducation, connaissance, diversité culturelle, paix, sécurité, genres, et caractères normatifs de l’I.A., Paris, le 26 févr. 2019, 36 pages.
[13]-Transition numérique et pratiques de recherche et d’enseignement supérieur en agronomie, environnement, alimentation et sciences vétérinaires à l’horizon 2040. Ouvrage collectif, HAL open science, Rapport de la prospective, oct. 2019, 159 pages, l’ouvrage porte un regard sur les rétrospectives, les tendances actuelles et les hypothèses d’évolution du système de l’Enseignement Supérieur et la Recherche (ESR) face au numérique et les différents scénarii.
[14]-DTCC, Pourquoi l’intelligence artificielle est une arme à double tranchant, par le personnel de DTCC, du 15 nov. 2023.
[15]- L’intelligence artificielle ; avantages et inconvénients, quels bénéfices quels risques pour l’entreprise ? Axio code, op.cit.
[16]- L’intelligence artificielle ; avantages et inconvénients, quels bénéfices quels risques pour l’entreprise ? Axio code, op.cit.
[17]- L’intelligence artificielle ; avantages et inconvénients, quels bénéfices quels risques pour l’entreprise ? Axio code, op.cit.
[18]-Lucie Cluzel-Metayer, I.A. : quel potentiel et quels risques dans les services publics, publié le 5 avr. 2024, Vie publique ; L’intelligence artificielle dans l’administration publique au Québec, Steve Jacob et Seima Souissi, Chaire de recherche sur l’administration publique à l’ère numérique, Université Laval, 2022, pp. 23-26 et 27-39 ; L’intelligence artificielle ; avantages et inconvénients, quels bénéfices quels risques pour l’entreprise ? Axio code, op.cit.