News Day FR

Intelligence artificielle et recherche scientifique : quelle corrélation ?

Intelligence artificielle (IA), (dans toutes ses composantes) – sous différents paradigmes ou modèles et plateformes tels que LLM (ChatGPT), algorithmes, modèles ou machines d’apprentissage automatique (AutoML), Nobel Turing Challenge (NTC), Open Machine Learning (OpenML ), DynaBench (collecte de données dynamiques et benchmarking), logiciels et calculs hautes performances… – est un processus complexe d’informatisation et de virtualisation capable à la fois de réflexion, de raisonnement, d’apprentissage et de prise de décision. manière d’intelligence humaine, qui elle-même n’est pas égale d’une personne à l’autre.

IA : définition étendue

La numérisation ou dématérialisation au sens large est la collecte et la manipulation d’informations en temps réel. L’algorithme, dérivé du nom d’Al Khawarizmi, le « grand-père de l’informatique », est le premier à avoir systématisé cette méthode de calcul, qui est un processus arithmétique, de contrôle et de traitement de données pour la résolution d’un problème ou l’obtention d’un résultat.

Algorithme et origine de l’IA

Cette méthode scientifique algorithmique était déjà utilisée, dans sa forme primaire ou initiale, en Mésopotamie, sous l’État babylonien, il y a 3 800 ans, pour le calcul et la perception des impôts et pour les transactions commerciales, et probablement même dans l’Egypte ancienne, il y a 4 500 ans, pour les mêmes opérations fiscales et commerciales, puisque l’arithmétique et la comptabilité étaient appliquées à la perception des impôts ; puis un peu plus tard, il y a 2300 ans, l’algorithme d’Euclide calculant le plus grand commun diviseur (PGCD) de deux nombres. Ce même algorithme enrichi, nourri, qui opère encore aujourd’hui dans des domaines aussi variés et différents que le commerce, la finance, l’agriculture, l’industrie, la médecine, l’imagerie médicale, l’optique, l’informatique, la recherche biomédicale, le changement climatique ou les pandémies.

Histoire de la recherche, continuité et place de l’IA

La recherche scientifique pertinente et opérationnelle ne date pas du XXIe siècle. Les lois et théorèmes des grands mathématiciens et physiciens de l’histoire qui peuvent remonter jusqu’à 2600 ans et remonter jusqu’au XXème siècle comme Thalès, Pythagore, Euclide, Archimède, Jabir ibn Hayyan, Al Khawarizmi, Al Kindi, Isaac Newton, Albert Einstein et bien d’autres sont toujours d’actualité et d’une grande valeur scientifique pour la recherche actuelle. Le fondement même de la recherche scientifique – et la création de l’IA n’échappe en rien à cette philosophie, à cet objectif d’intérêt général – est de se mettre au service des humains, au service de la communauté et non l’inverse.

L’informatique, la programmation informatique, ainsi que le raisonnement et l’apprentissage informatiques ne marquent pas une rupture avec la science et la recherche scientifique d’antan, ils les complètent. En effet, c’est il y a près de 1200 ans, bien avant Internet, les applications de réseaux sociaux, les smartphones, Netflix, Google Maps (ou PageRank), et l’intelligence artificielle, que le grand mathématicien Al Khawarizmi a conceptualisé cet ensemble algorithmique.

L’algorithme d’IA

L’algorithme d’intelligence artificielle est un processus d’apprentissage profond et d’adaptation à des données et des situations complexes, et ce sont justement les données d’apprentissage et d’adaptation qui le caractérisent, qui le préparent, qui le formatent. Si, mathématiquement et numériquement, pour atteindre un objectif ou résoudre un problème, l’algorithme classique procède étape par étape, l’algorithme d’IA génère comment apprendre.

Mais il ne s’agit en aucun cas d’une différence de nature, c’est simplement d’une différence de degré. Et depuis les travaux du grand scientifique Al-Khawarizmi en 830 jusqu’aux travaux d’Alan Turing en 1950 ou ceux de John McCarthy en 1955, sur l’IA il n’y a pas non plus de différence de nature, mais une différence de degré seulement. Depuis plus de 2000 ans, la recherche scientifique s’intéresse à l’idée et à la manière de mettre des machines intelligentes au service de l’humain et de son évolution. Cela fait plus de 2000 ans que différents courants de pensée, mythologiques, prophétiques, philosophiques, scientifiques ou artistiques, ont progressivement apporté leur contribution à ce processus d’Intelligence Artificielle.

Tout récemment, dans les années 1970, la science-fiction exprimait la crainte que les machines asservissent les humains. Par exemple, Ira Levin a publié en 1970 « Un bonheur insupportable » où l’humanité est gouvernée par un ordinateur caché sous les montagnes.

IA : une étape dans l’accumulation des connaissances

L’intelligence artificielle est un processus de raisonnement numérique et d’appropriation de données qui part de données réelles en les transformant, se présente aujourd’hui comme un haut degré d’apprentissage, de prise de décision, de connaissance, de littérature, de science et de technologie (tekhnologia en grec, plus de 2400 ans il y a). Elle a donc ceci de commun avec l’intelligence humaine d’hier et d’avant-hier. Il ne s’agit pas d’une rupture dans l’histoire cognitive de l’humanité, et dans la recherche scientifique de la communauté des chercheurs, c’est un jalon dans l’accumulation de connaissances, de savoir-faire et de faire connaître, depuis la nuit des temps, depuis la civilisation mésopotamienne. , il y a 10 000 ans.

Rien n’est créé « ex nihilo nihil »

Tout est dit, en réalité, ou presque, et on arrive trop tard (Jean de La Bruyère 1645-1696), pour prétendre inventer, puisque « rien à partir de rien « De rien, rien ne se passe » rien ne naît ni ne périt, disait il y a sept mille ans le philosophe grec Anaxagoras de Clazomène, mais les choses déjà existantes se combinent et se séparent à nouveau.« . Plus tard, le philosophe et chimiste Antoine Lavoisier (1743-1794), dit à peu près la même chose dans cette citation apocryphe (qui lui est attribuée), sur la conservation de la matière : «rien ne se perd, rien ne se crée, tout se transforme ».

IA versus HI : intelligence artificielle//intelligence humaine

La recherche scientifique ne sort pas de rien, elle agrège à partir de particules déjà existantes, se combine, se transforme, s’enrichit ; et l’intelligence artificielle, en tant que composant » robotisante » des recherches scientifiques susceptibles d’affecter des pensées, des attitudes et des comportements comparables à l’intelligence humaine, malgré toutes ses performances, ne fait pas exception à la règle. Aussi la combinaison de l’intelligence humaine et de l’intelligence artificielle devient de plus en plus une nécessité, compte tenu du contexte international favorable à la science, avec toutes les lacunes qui y sont intimement liées, et à toutes les éventualités : transactions, concurrence, hégémonie, guerres, pandémies. …Par ailleurs, l’investissement solidaire de tous ces acteurs, individus et institutions : entreprises, universités, bailleurs de fonds, pouvoirs publics, chercheurs et experts… dans ces champs disciplinaires de l’IA, est encore en retard par rapport aux autres champs d’investigation.

L’IA est-elle une arme à double tranchant ?

L’intelligence artificielle est en effet une arme à double tranchant : elle peut être utilisée à des fins bénéfiques ou à des fins maléfiques, voire nuisibles et destructrices. En fait, c’est ” un outil parmi d’autres », un outil technologique « qu’il faut comprendre », et prendre au sérieux, car les risques sont maîtrisés, et la prépondérance des activités numériques sur le travail manuel génère inévitablement des failles, des menaces, des attaques qu’il faut combattre, avec les mêmes armes : combattez le mal de l’IA avec le bien de l’IA. Cependant, quand abjection humaine ” l’emporte sur la grandeur, nous ne serions pas surpris de voir l’IA utilisée à des fins ” abject ».

On notera d’abord les menaces et attaques telles que la cybercriminalité, les problèmes de phishing ou de phishing, les attaques et emails, l’imitation artificielle, les risques éthiques et sociaux et les manipulations frauduleuses ou criminelles de données, et « lefait un mensonge » à travers les réseaux sociaux, au moment des élections présidentielles aux USA. Nous soulignerons ensuite les inconvénients comme le coût élevé de la machine qui est à la fois dénuée d’initiative, d’émotions, de moralité et de créativité, l’absence de contrôle , transparence et amélioration avec l’expérience.

Concernant les avantages, on note particulièrement la programmation continue et le travail sans pauses, l’assistance, le gain de temps et la qualité de vie, la productivité élevée avec les activités répétitives, le traitement du big data, l’accès à l’information, la réduction des erreurs et l’exploration de domaines d’investigation difficiles, il peut être l’innovation et la créativité mais ne jamais atteindre ” ce que possède le cerveau humain ».

Quelle est la contribution de l’IA à la société ?

En conclusion, je terminerai par cette question : quel est l’apport de l’IA dans le secteur public, privé ou parapublic ? Autrement dit : quel est l’apport de l’IA pour l’administration, les entreprises ou les ONG ? L’automatisation des tâches est un avantage non négligeable, tant pour l’administration que pour l’entreprise ou les ONG, le rôle de l’IA dans l’aide à la décision, et par conséquent l’expérience et la personnalisation de l’expérience, et l’expérience signifie aussi réduction des coûts et des risques et augmentation de l’efficacité et de l’efficience.

 
For Latest Updates Follow us on Google News
 

Related News :