Divers

Dr Abdalla Kablan sur la création d'une intelligence artificielle responsable

Dr Abdalla Kablan sur la création d'une intelligence artificielle responsable

Le Dr Abdalla Kablan est un entrepreneur en série et un expert en technologies financières primé. Il se spécialise dans l'utilisation de l'intelligence artificielle et de l'apprentissage automatique dans la conception de systèmes financiers complexes.

Tout au long de sa carrière, il a fondé un certain nombre de startups et d'entreprises spécialisées dans l'apprentissage profond, le jumelage professionnel et la Fintech. En outre, le Dr Kablan est un ancien de Microsoft Ventures, Royaume-Uni et a travaillé sur des projets qui ont été présentés au Forum économique mondial 2017 à Davos. Ses dernières entreprises sont Wyzer.ai et le groupe Caledo.

Le Dr Kablan est également universitaire à l'Université de Malte où il enseigne et recherche des sujets liés à l'intelligence informatique, à l'ingénierie financière et à la science des données financières. Au cours de son doctorat. études entre 2007 et 2011, le Dr Kablan a étudié les algorithmes de blocs cryptographiques derrière le bitcoin (maintenant connu sous le nom de blockchain) et est un expert renommé dans le domaine des registres distribués. En outre, le Dr Kablan conseille les gouvernements sur des questions liées au développement stratégique et à l'utilisation de la technologie, de la Fintech et des technologies Blockchain / DLT. En 2018, le Dr Kablan a lancé le DELTA Summit, qui est devenu l'événement officiel de Malte pour le DLT et l'innovation numérique.

Il s'est entretenu avec Ali Diker, de Interesting Engineering, lors de la conférence The Next Web 2019 de la semaine dernière pour discuter de l'état actuel de l'intelligence artificielle et de la question de savoir si elle constitue une menace pour l'humanité ou non. L'interview a été légèrement modifiée pour plus de clarté.

Ali Diker: Bonjour Dr Kablan, je suis content que vous puissiez être avec nous cet après-midi. Je voulais que nous commencions par discuter d'un article que vous avez écrit dans TechCrunch il y a quelques années sur la façon dont l'IA n'est pas une menace pour la société et le monde en général. Tout d'abord, certaines personnes sont assez pessimistes à propos de l'intelligence artificielle car elle peut être militarisée et peut même être très mortelle, mais certains optimistes pensent que l'IA changera les choses pour le mieux. Dans votre article, vous dites que nous devons redéfinir certains des concepts, par exemple la conscience, à mesure que nous progressons sur la voie de l'IA; Que pensez-vous devoir être redéfini et comment et pourquoi pensez-vous que nous devrions redéfinir ces concepts pour l'IA?

Abdalla Kablan: Tout d'abord, merci de m'avoir invité. Honnêtement, mon article n'était pas aussi optimiste que le titre le suggère. J'ai donc dit que l'IA n'était pas une menace pour l'humanité mais un Internet d'objets intelligents, peut-être. La raison pour laquelle je l'ai formulé ainsi, c'est parce que je crois sincèrement que cela peut aller dans les deux sens. Nous sommes au carrefour de l'histoire humaine où certaines décisions doivent être prises maintenant d'un point de vue stratégique qui pourrait avoir un impact sur l'avenir de l'humanité.

Maintenant, j'ai parlé de divers concepts et l'un d'eux est la conscience. Atteindre la conscience sur le front numérique est incroyablement difficile et incroyablement complexe. C'est principalement parce que la conscience, comme l'intelligence, est quelque chose d'assez abstrait et qu'il est très difficile de définir ce qu'est la conscience. Cependant, ce sur quoi je me concentre actuellement est en fait davantage la réalisation de la sagesse et la création de systèmes plus sages que la création de systèmes intelligents et je vais essayer d'expliquer pourquoi.

Le problème que nous avons rencontré dans l'IA en général est lié à la compréhension des données. Les données, à mon avis personnel, sont un processus en cinq étapes; le cycle de vie des données, si vous voulez. Vous commencez donc par les données; vous traitez des données et elles deviennent des informations; l'information avec le temps se transforme en connaissance; la connaissance avec la pratique devient la compréhension du domaine du problème; et puis il y a quelque chose qui - avec la pratique du traitement, de la compréhension et de l'intelligence - évolue vers la sagesse.

La grande majorité des systèmes d'IA historiquement sont toujours coincés dans la connaissance glorifiée par l'intelligence et n'ont pas atteint le stade de la sagesse et la différence est assez claire: la connaissance est la différence entre le vrai et le faux, mais la sagesse est la différence entre le bien et le faux.

Un bon ami à moi aime dire que la connaissance, c'est savoir qu'une tomate est un fruit, mais la sagesse est de ne pas l'ajouter à une salade de fruits. L'IA, historiquement, ne pouvait pas comprendre le lien ou l'inférence du côté de la sagesse. La raison en est que depuis 40 à 50 ans en IA, la course aux armements visait principalement à créer le prochain Einstein, le meilleur modèle mathématique capable de résoudre un problème comme battre le champion du monde à Chess or Go.

Au lieu de créer un Einstein, nous aurions dû nous concentrer sur la création d'un Aristote qui comprend les différentes facettes de l'intelligence, non seulement l'intelligence intellectuelle et mathématique, mais aussi l'intelligence sociale, l'intelligence culturelle et l'intelligence émotionnelle. La raison pour laquelle ceux-ci n'ont pas été résolus n'est pas parce qu'ils sont insolubles, c'est que personne ne s'est concentré sur eux.

J'appartiens donc maintenant à la mentalité qu'au lieu de nous concentrer sur l'intelligence artificielle, nous devrions nous concentrer sur la sagesse artificielle; pour créer des systèmes qui, par conception, suivent un chemin bienveillant au lieu d'un chemin destructeur. En tant qu'humains, nous sommes très imparfaits; il ne faut pas un génie pour se rendre compte que nous sommes irrationnels, mais nous sommes vraisemblablement irrationnels. Nous portons les graines de notre autodestruction parce que tout au long de notre histoire, nous avons pris tellement de décisions qui ont causé la misère et l'agonie et s'il y a une intelligence supérieure, elle se rendra compte que nous sommes assez imparfaits et ce sera un problème pour nous.

En tant que membre de l'équipe humanité, j'ai besoin de sauvegarder l'avenir de notre espèce et je sais qu'il est inévitable que si l'accent est mis sur l'intelligence, un être intelligent réalisera nos défauts et en capitalisera. Si l'accent est mis sur la sagesse, un être plus sage ou une création plus sage saura que détruire l'humanité n'est bon pour personne car à la fin de la journée, l'humanité est une forme de vie et elle ne devrait pas être gâchée par principe.

Le fait est que les humains eux-mêmes ont fait cela à d'autres créatures. La façon dont nous avons historiquement traité non seulement les animaux mais les uns les autres - même si nous sommes très intelligents - pourrait en fait nous arriver si nous atteignons un niveau de singularité ou d'intelligence artificielle qui dépasse l'intelligence humaine sans nous concentrer sur la sagesse. Donc, se concentrer sur le côté réglementaire, se concentrer sur le côté éthique du point de vue du développement est tout à fait crucial.

Les nations du monde devraient en fait prêter plus d'attention à cela avant qu'il ne soit trop tard. Prenons par exemple l'industrie automobile, pendant tant d'années, nous n'avions pas de ceintures de sécurité et il y avait beaucoup de gens qui disaient aux constructeurs automobiles que vous aviez besoin de ceintures de sécurité parce que la statique montre que si vous ne portez pas de ceinture de sécurité, vous mourez. . Les constructeurs automobiles ont résisté à cette réglementation pendant très longtemps jusqu'à ce qu'ils soient obligés de mettre la ceinture de sécurité dans les voitures.

Maintenant, beaucoup de gens sont morts sans ceintures de sécurité, mais cela n'a pas fait disparaître l'humanité. Le problème avec l'IA, c'est qu'au moment où les gens se rendront compte qu'elle doit être réglementée, il sera déjà trop tard. Personne ne peut prédire l'avenir, mais nous devons avoir une vision stratégique de la manière dont cela pourrait évoluer si nous ne sommes pas responsables.

À Malte, où je suis basé et d'où je viens, le gouvernement a mis en place l'année dernière un groupe de travail national sur l'IA pour étudier les implications potentielles de l'adoption massive de l'intelligence artificielle tout en l'encourageant et en proposant un stratégie qui attirera les développeurs d'IA et les projets d'IA à venir et à innover de Malte, mais dans nos limites réglementaires et dans une stratégie nationale qui prend en compte le côté éthique du développement, le côté de la propriété intellectuelle, et tout cela.

Je pense que cela devrait devenir une discussion mondiale et seulement si la recherche et le développement se concentrent davantage sur la sagesse, c'est là que nous allons casser la conscience, nous allons casser des choses telles que l'intelligence émotionnelle, le côté de l'intelligence sociale. Ce n'est pas difficile, car nous en sommes au tout début. L'IA n'est pas nouvelle, elle existe depuis l'époque d'Alan Turing, mais nous nous sommes concentrés sur un côté et avons oublié 80% du vrai problème.

C'est compréhensible car même à l'école, quand vous dites «oh cet élève est intelligent!» parce que cet élève obtient la meilleure note, mais cela ne veut pas dire qu'il est l'élève le plus intelligent. Cela reflète notre propre façon de penser irrationnelle.

UN D: Comment déterminer ce qui est raisonnable pour une intelligence artificielle? Par exemple, dans Isaac Asimov Je robot vous aviez une intelligence artificielle qui protégeait les humains des autres humains. Dans ce cas, l'intelligence artificielle est bonne pour certains humains et un obstacle pour d'autres.

AK: C'est en fait très, très difficile à dire. Comme je l'ai dit, l'IA devient plus intelligente, elle devient plus avancée, mais même les humains progressent au-delà de toute croyance. Je pourrais même affirmer qu'en tant qu'humains, nous sommes tous des cyborgs pour le moment parce que la définition d'un cyborg est quelqu'un qui a une sorte d'amélioration cybernétique de son corps. Nous avons ces appareils que nous tenons constamment entre nos mains et si vous y réfléchissez historiquement, nous avions des ordinateurs centraux, puis des PC, puis des ordinateurs portables, puis des iPhones, puis Google Glass - qui était un peu temporaire - mais ce n'est qu'une question de temps avant que ces choses n'entrent réellement dans notre corps et que nous soyons tous ébréchés.

À mon avis, il y a aussi une avancée du côté humain mais cela me fait encore plus peur que l'IA devenant beaucoup plus intelligente. Malheureusement, si les humains progressent davantage du côté cybernétique dans cette mesure, cela va provoquer une distinction élitiste majeure entre les gens, les plus riches pourront se permettre la puce la plus chère, la meilleure et la plus intelligente. La sélection naturelle commencera en fait à favoriser les plus riches par rapport aux plus sains ou aux plus intelligents et c'est à mon avis un problème majeur.

Sur la deuxième partie sur l'IA protégeant les humains des humains, c'est un argument philosophique très profond. Finalement, nous allons y arriver et - pour en revenir à la réglementation - nous devons anticiper ces tendances maintenant et essayer de proposer des lois pour ne pas nous retrouver dans ce genre de situation ou de scénario.

UN D: La question suivante concerne donc Blockchain. Comment la technologie blockchain aidera-t-elle à améliorer l'intelligence artificielle?

AK: C'est une très bonne question. Je pense donc qu'il y aura bientôt une convergence entre diverses disciplines, à savoir la Blockchain, l'IA et l'IoT. Sur ce front particulier, nous devons comprendre que sur le front de la blockchain, contrairement à l'IA, nous en sommes aux tout premiers stades, comme Internet dans les années 1980 et au tout début des années 1990.

Ainsi, Internet a existé en tant que protocole pendant près de 30 ans, TCP / IP, ce n'est que lorsqu'une belle invention du début des années 90 a catapulté Internet dans un endroit complètement différent, et cette invention était le navigateur Web. Le jour où nous avons eu le premier navigateur, nous avons commencé à réaliser ce protocole, TCP / IP, de manière inimaginable à cause de toute cette indexation dont nous parlions au niveau du code, maintenant nous pouvons le visualiser et rechercher, nous pouvons interroger, c'est devenu beaucoup plus simple. Avec Blockchain, nous n'avons pas atteint cet objectif, mais c'est bien, c'est sain, et nous savons que nous allons réellement y aller et finalement nous y arriverons.

La blockchain, comme vous le savez, est un processus de registre décentralisé qui est toujours axé sur le stockage de données, il n'a pas encore atteint le côté traitement. Je crois personnellement que nous allons bientôt - et quand je dis bientôt, je dis entre cinq et dix ans - la blockchain développera des architectures beaucoup plus sophistiquées, des architectures technologiques de grand livre décentralisées, qui permettront non seulement le stockage mais aussi le traitement. Cela améliorera les capacités d'acquisition, d'administration et de traitement des données au-delà de ce que nous avons actuellement, ce qui signifie que les systèmes d'IA vont s'améliorer à un niveau inimaginable.

Si l'IA s'améliore, nous revenons à l'argument de savoir si l'IA deviendra une menace pour l'humanité; Cependant, je crois sincèrement que la blockchain est une solution fantastique et aubaine pour nous car nous avons un consensus avec la blockchain et lorsque vous avez un consensus, vous pouvez avoir une forme de contrôle. Si une IA va devenir voyou, collectivement parlant, elle ne va pas parvenir à un consensus, donc elle ne pourra pas effectuer certaines tâches sur le réseau, car nous saurions que cela ne devrait pas se produire parce que ce n'est pas au profit de l'ensemble réseau.

Donc, la blockchain, parce que nous avons ces mécanismes de consensus, espérons que nous aurons une certaine forme d'intelligence dans la preuve des travaux, la preuve des enjeux et la réalisation d'un consensus, de sorte que dans cinq, dix ans, il y aura beaucoup d'amélioration à ce sujet. technologie actuelle. Cela nous aidera à faire et à faire la distinction entre pas vrai et faux mais bien et faux et si votre décision d'exécuter une certaine action dans le réseau est nuisible, vous n'atteindrez pas cette forme de consensus.

Je pense donc que la blockchain est une très bonne solution et nous, en tant que développeurs, devrions y réfléchir maintenant. J'ai dit avant que nous ayons commis une erreur avec l'IA que je pense que nous devrions reconnaître, que nous avons vraiment suivi le mauvais chemin avec l'IA, et qu'avec la blockchain, nous devrions être responsables et avoir ces conversations et reconnaître que la blockchain n'existera pas seule; L'IA va bientôt s'intégrer et progresser avec elle. Alors créons nos mécanismes de consensus non seulement pour faire ces preuves qui valident les transactions financières - ce qui est très bien - mais quand il s'agit de traitement, quand on reconnaît que lorsqu'il y a une forme d'action non bienveillante, on l'arrête.

Plus facile à dire qu'à faire, mais si nous réunissons suffisamment de bons cerveaux pour le résoudre, ce n'est pas quelque chose d'insoluble. Tout ce que nous faisons ne fait que retarder l'inévitable, nous serons finalement dans une situation où l'IA surpasse l'intelligence humaine, mais si nous pouvons la retarder ou la contrôler d'une manière qui nous enlève la plupart des torts, alors cela ce serait génial.

UN D: Mais disons qu'une majorité prend une mauvaise décision sur la manière dont l'intelligence artificielle et la blockchain peuvent être intégrées, sur le processus. Il semble bien que les majorités aient tendance à prendre de mauvaises décisions, comment y faire face?

AK: C'est une excellente question qui touche aux principes fondamentaux de la démocratie et de la prise de décision. Je pense que nous devrions avoir certaines formes de garde-fous, au moins pour ce qui est évident. Si la majorité prend des décisions dont nous savons qu'elles peuvent potentiellement nuire aux gens, non seulement physiquement mais même financièrement, cela ne devrait pas être autorisé; même si la majorité pense que c'est la bonne chose à faire.

Encore une fois, le côté négatif de cela est que nous réalisons une sorte de configuration tyrannique où le système est plus puissant que le peuple. Je ne suis pas assez bien placé pour porter un jugement qui me tient suffisamment à cœur, mais je sais que c'est un problème qui doit être discuté et résolu, alors je pense que plus de dialogue et de recherche doivent avoir lieu.

J'adorerais consacrer plus de temps à m'asseoir et à réfléchir à cela, mais le problème que nous avons tous est que, de toute évidence, il se passe tellement d'autres choses dans la vie. Je pense qu'il devrait y avoir des gens qui consacrent leur temps juste à réfléchir et à résoudre des problèmes comme celui-ci parce que vous avez absolument raison, l'histoire est pleine de majorités qui prennent des décisions qui n'étaient pas mauvaises pour la majorité, mais nous n'appellerions pas cela bonnes les décisions.

UN D: Je veux revenir à ce que vous avez dit plus tôt, à savoir que nous ne devrions pas essayer de créer plus d'Einstein, mais nous devrions créer plus d'Aristote. L'IA se développe de telle manière que nous avons des IA qui composent de la musique - elles reflètent le chemin de certains esprits créatifs comme Mozart ou un Beethoven - mais ce n'est pas de la vraie créativité. Pensez-vous que les IA développeront une vraie créativité comme les humains à un moment donné, développant de nouveaux concepts, des choses comme ça?

AK: Je pense vraiment que c'est possible, et pour revenir à ce que j'ai dit, créer une intelligence artificielle plus sage - ou une sagesse artificielle - en fait partie. Pour le moment, même si nous avons ces brillantes IA qui composent de la musique, si vous demandez à cette même IA «Quelle est la capitale de l'Estonie?» il ne sait pas de quoi vous parlez parce qu'il a été créé dans un but précis.

C'est ce qui montre que nous cherchons toujours une intelligence étroite au lieu d'une forme plus large d'intelligence. Pour le moment, il est très difficile d'obtenir l'IA qui a battu le champion du monde humain aux échecs pour préparer une tasse de café dans une cuisine qu'on n'a jamais vue. Ou peut-être - excusez cet exemple, ne l'utilisez peut-être pas - mais l'un des problèmes intéressants est de choisir le bon urinoir dans une salle de bain que vous n'avez jamais vu auparavant, car la quantité d'intelligence humaine qui entre dans ce processus est assez stupéfiante.

Si vous entrez et qu'il y a cinq urinoirs, vous prenez celui sur le côté. Si quelqu'un entre, il est peu probable qu'il prenne celui à côté de vous, il ira dans l'un de quelques espaces, et ainsi de suite. Il y a beaucoup de calculs d'inférence qui ne sont pas seulement l'intelligence, ses aspects sociaux, émotionnels, culturels, et vous devez avoir vécu cela, compris cela et mieux comprendre cela par la pratique.

Donc, avec l'IA, nous avons été assez restreints, même du point de vue de la modélisation mathématique, car certains diront que nous voulons résoudre le problème des échecs, utilisons un réseau de neurones. Certains diraient que nous allons créer un climatiseur pour le contrôle du climat, utilisons la logique floue. Nous voulons créer une IA capable de faire du vélo, utilisons l'apprentissage par renforcement.

UN D: Pouvez-vous nous en dire un peu plus?

AK: Sûr. L'apprentissage par renforcement est beau, il imite la façon dont les humains apprennent. Dans l'apprentissage par renforcement, vous avez deux fonctions mathématiques, la fonction de récompense et la fonction de punition, donc c'est très similaire au fonctionnement de l'esprit humain. Donc, si vous faites du vélo et que vous faites le mauvais mouvement, vous tombez, cela vous fait mal, vous avez déclenché votre fonction de punition et vous saurez que vous ne referez plus jamais ce mouvement. Si vous allez en ligne droite et que vous êtes heureux d'aller en ligne droite, vous savez que c'est ainsi que vous devez le faire pour que cela déclenche une fonction de récompense dans votre cerveau.

C'est la même chose avec l'apprentissage par renforcement, donc si vous faites une erreur, vous dites mathématiquement que vous ne devriez jamais faire cela et si vous faites la bonne chose, dites mathématiquement faire plus de ce comportement. Par exemple, il existe des algorithmes génétiques, ce qui signifie qu'ils copient des mécanismes de sélection naturelle pour trouver la solution la plus optimale à un problème spécifique comme la gestion de portefeuille, etc.

Ce ne sont donc pas des mondes convergents, donc je pense qu'il y a un avenir pour tous ces modèles mathématiques pour créer réellement des systèmes hybrides. Il n'y a donc pas de moyen mathématique de comprendre des choses comme le bon sens ou l'intuition, mais la logique floue est le modèle mathématique le plus proche qui puisse vous y amener. Il n'y a pas de modèle mathématique pour apprendre à un enfant à compter de un à dix, mais un réseau neuronal est le plus proche de cela. Il n'y a pas de modèle mathématique pour apprendre à faire du vélo, mais l'apprentissage par renforcement vous en rapproche le plus.

Donc, si nous combinons tous ces éléments ensemble, nous obtiendrons une forme d'intelligence artificielle beaucoup plus englobante et comprendrons différentes facettes de la résolution de problèmes qui nous mèneront à une intelligence plus large qui ne se concentre pas spécifiquement sur un problème spécifique. Je pense que c'est là que nous devrions, encore une fois, regarder les choses, même d'un point de vue comportemental indépendant des données, car maintenant avec la plupart des IA, si j'ai une IA qui négociera sur les marchés financiers, je ne l'entraînerai qu'avec des données financières. Si j'ai une IA qui prédira la météo, je ne l'entraînerai que sur les données météorologiques.

Mais nous devons créer des IA qui sont indépendantes des données parce que nous, en tant qu'êtres humains, sommes indépendants des données. Donc, si vous décidez de devenir menuisier, vous apprenez simplement à faire de la menuiserie. Vous n'êtes pas né dès le premier jour en sachant que vous serez menuisier. En tant qu'humains, nos cerveaux sont câblés de manière à ce que nous puissions apprendre différentes choses en même temps. Avec l'IA, ce n'est tout simplement pas le cas.

UN D: Alors, dites-vous que nous pouvons créer une IA qui a des désirs, comme - je ne veux pas dire cela mais c'est la chose la plus proche - des sentiments? Est-ce possible, ai-je bien compris?

AK: Les sentiments sont une chose très, très humaine.

UN D: Je sais, mais ce à quoi je veux en venir, c'est pouvons-nous créer une IA qui peut décider veut devenir menuisier?

AK: Peut-être, s'il y a été exposé. La clé est que l'IA doit être créée de manière à ce que si je veux la transformer en charpentier ou en voiture autonome, elle repose sur les mêmes principes fondamentaux. Je n'ai donc pas besoin de le construire à partir de rien pour devenir menuisier. J'ai besoin d'un composant IA de base et si cela devait évoluer vers une voiture autonome, je lui ajouterais simplement le composant autonome. Si je voulais que ce soit un menuisier, j'ajouterais simplement le composant de menuiserie, mais le «cerveau» de l'IA de base devrait être indépendant des données.

UN D: Nous n'avons presque plus de temps, voulez-vous conclure avec des réflexions finales sur la question?

AK: Ouais, donc comme je l'ai dit, je ne suis ni pessimiste ni optimiste, je sens juste le poids de la responsabilité - pas seulement sur mes épaules mais sur les épaules de n'importe qui dans cet espace - que nous devons prendre les bonnes décisions aujourd'hui afin de sauvegarder demain. Cela pourrait vraiment aller dans les deux sens et les décisions que nous prenons aujourd'hui vont certainement influencer l'avenir.

Prenez tout de suite les téléphones portables. Nous sommes déjà tellement accro à eux et ils n'ont aucune intelligence en termes d'interaction avec nous. Imaginez ce qui se passera si votre téléphone réalise à quel point vous êtes accro à Internet, il peut vous manipuler de manière incroyable.

Encore une fois, nous devons être responsables, comme tout dans l'humanité, vous aurez des gens responsables et des gens irresponsables, c'est pourquoi nous avons des problèmes, c'est pourquoi nous avons des guerres, c'est pourquoi notre histoire est remplie d'exemples où nous nous sommes presque complètement détruits par des catastrophes qui ont été créés par nous en tant qu'humains; donc vous aurez toujours les irresponsables.

Le problème est que nous devons désormais inculquer le sens des responsabilités aux développeurs. J'aime beaucoup, par exemple, comment si vous assistez à des événements comme celui-ci, plus de gens utilisent des gobelets en papier que des gobelets en plastique parce que nous avons commencé à réaliser que le plastique détruit la planète. Vous rencontrez des gens maintenant et ils se disent: "Ne me donnez pas de gobelet en plastique, donnez-m'en un en papier." C'est génial!

Du côté des développeurs, nous n'avons aucun sens des responsabilités, cela a toujours été à propos de ce que vous ressentez, alors maintenant il y a une nouvelle école de pensée qui vous dit: «Écoutez, quoi que vous fassiez, ne foutez pas le futur!» Voilà donc ce que je retiens de tout cela.

UN D: Merci Abdalla, cela a été une excellente conversation pour moi.

AK: De même, Ali, c'était très stimulant intellectuellement, merci.


Voir la vidéo: La difference entre: Intelligence Artificielle, Machine Learning, Deep Learning et Data Science (Août 2021).