Jon Rappoport met en garde: les cerveaux d’intelligence artificielle aussi défectueux que les cerveaux humains peuvent être dominés par de fausses informations stockées dans de fausses plateformes d’information comme Wikipedia

Jon Rappoport, journaliste d’investigation chevronné et auteur, a récemment contesté que l’intelligence artificielle est très loin de son objectif de fusion avec le cerveau humain. Rappoport dit que si les systèmes d’IA ont pris de l’ampleur au cours des dernières années, les neurosciences n’ont pas complètement compris comment fonctionne le cerveau humain. L’auteur renommé a également discuté que la découverte de l’algorithme derrière la fonction cérébrale reste assez loin.

Selon Rappoport, d’autres défis se profilent avant qu’une interface homme-machine fonctionnelle ne devienne réalité. Rappoport a noté que l’interface traiterait des obstacles dans la transmission d’informations détaillées. L’auteur a soulevé des inquiétudes sur la façon dont le cerveau serait efficacement relié à une interface informatique, et si le cerveau serait suffisamment fonctionnel pour absorber et traiter toutes les informations qu’il obtiendrait de l’interface.

De même, l’auteur a soutenu que la prolifération de fausses informations constituerait une grande menace pour le développement de l’interface homme-ordinateur. Rappoport a noté que si l’interface est effectivement devenue possible, elle sera toujours confrontée à des hordes d’informations erronées stockées dans des bases de données douteuses. Rappoport a ajouté que la détection et la suppression de fausses informations dépassaient les capacités d’un programme. De même, l’auteur a soutenu qu’il n’y a pas de comité qui surveille et corrige ces informations erronées.

“Il y a une fonction auto-limitative inhérente à l’IA. Il utilise, accède, rassemble et calcule avec, de fausses informations. Pas seulement ici et là ou maintenant et puis, mais de façon continue. Pensez à toutes les institutions et monopoles ancrés dans notre société. Chacun d’entre eux prolifère de fausses informations en cascades. Aucune machine ne peut corriger cela. En effet, les machines AI en sont victimes. À leur tour, ils émanent plus de faussetés basées sur l’information qu’ils utilisent », a écrit Rappoport dans Waking Times en ligne.

Rappoport était l’auteur de Matrix Revealed, Exit From The Matrix et Power Outside The Matrix. Il a également été candidat à un siège au Congrès des États-Unis dans le 29e district de Californie.

Expert: les cerveaux d’IA sont aussi défectueux que les cerveaux humains

Kate Crawford, professeur de recherche à l’Université de New York (NYU), a également miné la capacité des cerveaux d’IA, affirmant que les programmes pourraient être aussi enclins aux erreurs que les cerveaux humains. Selon l’expert, les systèmes d’IA dépendent de réseaux de neurones qui imitent les mécanismes du cerveau pour apprendre. Crawford a également expliqué que ces systèmes peuvent être formés pour reconnaître les modèles d’information tels que la parole, les données textuelles ou les images visuelles.

Cependant, Crawford a soutenu que ces informations ne sont fournies aux systèmes que par les humains eux-mêmes. Ceci, à son tour, rend les cerveaux d’IA tout aussi sensibles aux erreurs humaines. L’expert a également averti que le cerveau de l’IA pourrait par inadvertance utiliser ces erreurs et biais susceptibles d’affecter ses capacités de prise de décision. (Relatif: L’expert avertit que les cerveaux d’IA ne sont pas infaillibles et ont même été trouvés pour “prendre de mauvaises décisions” qui peuvent nuire aux humains.)

“Ces systèmes” apprennent “à partir de données sociales qui reflètent l’histoire humaine, avec tous ses préjugés et préjugés intacts. Les algorithmes peuvent involontairement renforcer ces biais, comme l’ont montré de nombreux informaticiens. C’est un problème mineur quand il s’agit de la publicité Instagram ciblée, mais un problème beaucoup plus grave si l’AI décide qui obtient un emploi, quelles nouvelles politiques vous lisez ou qui sort de prison. Ce n’est qu’en développant une meilleure compréhension des systèmes d’IA dans le monde que nous pouvons nous assurer que cette nouvelle infrastructure ne devient jamais toxique “, a déclaré le professeur Crawford.

Crawford et ses collègues ont annoncé le lancement de l’Institut AI Now en octobre dernier. L’institut vise à examiner les implications sociales complexes du développement de l’IA, a expliqué Crawford.

Connectez-vous à Robotics.news et soyez au courant des dernières nouvelles en robotique et en intelligence artificielle.