• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Et si les humains n'étaient plus les êtres les plus intelligents de la Terre ?

    Crédit :CC0 Domaine public

    Dans sa finale, livre publié à titre posthume, le célèbre physicien Stephen Hawking sonne l'alarme sur les dangers de l'intelligence artificielle, ou IA, et la menace existentielle que cela pourrait représenter pour l'humanité.

    Dans "Réponses brèves aux grandes questions, " Hawking écrit, "une IA super-intelligente sera extrêmement douée pour atteindre des objectifs, et si ces objectifs ne sont pas alignés sur les nôtres, Nous avons des problèmes."

    L'économiste de l'Université de Virginie Anton Korinek est tout à fait d'accord, et il pense que le type d'IA auquel Hawking fait référence - "l'intelligence artificielle générale" qui peut égaler ou dépasser l'intelligence humaine - pourrait n'être que dans quelques décennies.

    "Je crois que, d'ici la seconde moitié de ce siècle, L'IA - robots et programmes - sera meilleure que nous, les humains, dans presque tout, " dit Korinek, qui détient un poste conjoint au département d'économie de l'UVA et à la Darden School of Business. « La question fondamentale devient, « Qu'arrivera-t-il aux humains si nous ne sommes plus les êtres les plus intelligents de la Terre ? »

    Korinek a écrit et co-écrit plusieurs articles publiés et à paraître sur l'impact économique de l'augmentation de l'intelligence artificielle, y compris un article publié par le Bureau Nationale de la Recherche Economique et plusieurs travaux en cours. Il donnera un cours sur le sujet, "L'intelligence artificielle et l'avenir du travail, " au printemps.

    Nous nous sommes assis avec lui pour discuter de la question fondamentale qu'il a posée, les futurs possibles de l'intelligence artificielle et ce que les humains peuvent faire maintenant pour façonner cet avenir.

    Q. Hawking et d'autres préoccupés par l'essor des programmes et appareils d'IA se concentrent sur « l'intelligence artificielle générale ». Qu'est-ce que ça veut dire, exactement?

    R. Les systèmes d'IA dont nous disposons actuellement sont appelés « intelligence artificielle étroite ». Nous avons des programmes informatiques qui sont chacun construits pour un but étroit, s'il s'agit de cibler la meilleure annonce auprès d'un consommateur pour attirer des ventes, filtrer les demandeurs de carte de crédit ou même conduire une voiture. Mais ces programmes ne peuvent généraliser ce qu'ils ont appris au-delà de leur champ d'application étroit.

    « IA générale » fait référence aux systèmes d'intelligence artificielle qui pourraient fonctionner dans un large éventail de domaines, comme les humains peuvent le faire. Nous ne sommes pas encore là. Par exemple, des appareils comme Alexa ou Google Home, même s'ils peuvent sembler assez puissants à certains égards et deviennent de plus en plus puissants de jour en jour, n'ont pas la compréhension générale que les humains ont.

    Q. Sommes-nous près de ce point ?

    A. Il y a une incertitude considérable, mais je pense que nous pourrons atteindre ce que la plupart conviendraient d'être une intelligence artificielle générale dans 15 à 50 ans.

    Les niveaux d'intelligence humaine sont assez constants, sauf un peu de marge de manœuvre pour les progrès de l'éducation. Pour l'IA, d'autre part, les progrès ont été exponentiels. Bien que les humains écrivent toujours les programmes informatiques qui sont le cerveau de toute opération d'IA, de nombreux programmes d'IA sont déjà capables de s'entraîner et de s'adapter par eux-mêmes.

    Je ne vois pas la fin de ce progrès exponentiel à court terme. Je dirais qu'il y a de fortes chances que l'IA atteigne et dépasse l'intelligence humaine générale au cours de ce siècle.

    Q. Quelles sont les implications économiques du fait que la technologie éclipse l'intelligence humaine ?

    A. À certains égards, nous en voyons déjà l'impact. Au cours du dernier demi-siècle, les travailleurs non qualifiés aux États-Unis ont à peine vu des gains de revenu. Le salaire réel moyen des travailleurs non cadres, par exemple, a diminué au cours des 40 dernières années, alors même que l'économie a presque triplé de taille. La plupart de ces gains sont allés aux soi-disant superstars de l'économie, avec certaines estimations suggérant que les trois Américains les plus riches possèdent désormais plus de richesse que les 50 % les plus pauvres de la population américaine réunis. Les progrès technologiques ont été un facteur important de ces inégalités, et je m'attendrais à ce que cela continue.

    Aller de l'avant, à mesure que les systèmes d'IA se rapprochent de plus en plus de l'intelligence humaine, les impacts sur le marché du travail deviendront de plus en plus graves et les personnes les plus élevées dans l'échelle des compétences seront de plus en plus affectées; par exemple, médecins, avocats, gestionnaires et, Oui, les professeurs. Les machines pourraient générer une explosion de l'offre de main-d'œuvre non humaine et conduire à une croissance économique exponentielle, mais font chuter les salaires réels d'une grande partie des travailleurs humains au fur et à mesure qu'ils sont déplacés. C'est le dilemme :sans contrôle, l'économie produira toujours plus, mais les gains de la croissance économique peuvent aller de moins en moins.

    Finalement, il y a le risque, souligné par Stephen Hawking, que les systèmes d'IA super-intelligents ne peuvent plus être contrôlés par les humains et peuvent poursuivre leur propre programme. Même s'ils respectent la vie humaine, ils sont susceptibles de consommer des ressources importantes, comme la terre et l'énergie, créer une concurrence pour ces ressources avec les humains et augmenter leurs prix, ce qui appauvrirait encore plus les humains.

    Au-delà des implications économiques, il y a aussi la question sociale de ce qui se passe lorsque les humains ne sont plus les êtres les plus intelligents de la planète. Serons-nous toujours capables de gouverner la planète comme nous l'avons fait jusqu'à présent ? Pouvons-nous diriger l'IA ou fusionner avec l'IA d'une manière qui fera avancer l'humanité et nous aidera plutôt que de nous blesser ?

    Q. Quelles mesures le gouvernement et les chefs d'entreprise pourraient-ils prendre dès maintenant pour façonner cet avenir ?

    Une première, nous avons besoin que nos chefs de gouvernement soient conscients de ces questions importantes. Ils devraient être au centre de nos débats politiques, étant donné la vitesse à laquelle la technologie s'accélère. Cela ne se produit pas aux États-Unis en ce moment, mais cela se produit dans des pays comme la Chine et la Russie.

    Chine, par exemple, a déclaré vouloir être le leader mondial de l'intelligence artificielle d'ici 2030, et il investit d'énormes ressources pour atteindre cet objectif. En Russie, Vladimir Poutine considère l'IA comme la clé de l'avenir, déclarant que « quiconque deviendra le leader dans cette sphère deviendra le souverain du monde ». Si nous voulons que les États-Unis dirigent les développements de l'IA, et de mettre nos valeurs de liberté et de démocratie au centre de ces évolutions, nos dirigeants doivent être plus actifs dans ce domaine. Nous avons besoin d'un plan directeur pour l'IA afin d'orienter le progrès technologique dans une direction qui nous est souhaitable.

    Tome, en tant qu'économiste, l'inégalité sera l'un des plus grands défis posés par les futurs progrès de l'IA. J'ai étudié plusieurs mesures de politique économique pour atténuer l'augmentation des inégalités.

    Q. Qu'est-ce que c'est ?

    R. Il y a trois idées spécifiques que j'ai examinées dans mon travail.

    Le premier est de se prémunir contre le pouvoir de monopole. Dans l'économie numérique, les plateformes numériques ont une forte tendance à se transformer en monopoles. Si vous êtes le premier réseau social décent, ou le premier moteur de recherche décent, ou le premier site e-commerce décent, vous avez tendance à capter l'ensemble du marché en raison de ce qu'on appelle les externalités de réseau ; chaque utilisateur que vous ajoutez vous donne plus d'informations et vous permet de mieux servir vos utilisateurs existants. Par conséquent, les entreprises et leurs dirigeants ont un pouvoir de marché énorme. Avoir un tel pouvoir étroitement concentré est en fait inefficace pour le marché et nécessite des règles antitrust et une application plus agressives.

    Deuxièmement, dans le cadre de cela, nous devrions également réexaminer les lois sur la propriété intellectuelle. Dans notre économie de la connaissance, les lois sur la propriété intellectuelle encouragent l'innovation, ce qui est certainement important et une bonne chose. Cependant, ils alimentent aussi les monopoles, étant donné qu'ils peuvent accorder aux entreprises un accès exclusif aux nouvelles technologies pendant une période pouvant aller jusqu'à deux décennies. Un secteur où nous le voyons clairement est l'industrie pharmaceutique, où les sociétés pharmaceutiques augmentent les prix des médicaments brevetés à des niveaux incroyables et récoltent d'énormes profits, souvent pour des innovations vraiment insignifiantes.

    En ce moment, compte tenu de l'essor de l'IA, il pourrait être sage de revoir les lois sur la propriété intellectuelle et de recalibrer l'équilibre entre encourager l'innovation et se prémunir contre les monopoles nuisibles.

    Finalement, il existe des moyens d'orienter le progrès technologique dans une direction qui aide les travailleurs moins instruits, au lieu de les remplacer. Certains économistes ont commencé à appeler cela l'assistance au renseignement ou l'IA. Par exemple, L'IA pourrait équiper les travailleurs humains des centres d'appels pour mieux répondre aux problèmes des clients sans éliminer complètement ce travailleur humain, et en fait en utilisant leurs qualités humaines uniques pour aider à résoudre le problème. Diriger consciemment et intentionnellement les progrès dans cette direction améliorerait les conditions sur le marché du travail humain.

    Q. Y a-t-il autre chose que vous aimeriez voir se produire maintenant, pour mieux préparer les humains à l'avenir ?

    R. L'un de mes objectifs est de sensibiliser davantage aux opportunités et menaces radicales créées par l'IA avancée. Maintenant, nous avons plus de questions que de réponses, et nous sommes pressés par le temps - les progrès technologiques ne s'arrêtent pas pour nous donner plus de temps pour trouver de bonnes réponses aux défis posés par l'IA avancée. J'espère que certains de nos jeunes esprits les plus brillants et les plus brillants travailleront sur ces questions, au profit de toute l'humanité.

    J'aborderai bon nombre de ces questions avec nos étudiants dans un cours sur « L'intelligence artificielle et l'avenir du travail » que je proposerai aux étudiants en économie et en informatique ce printemps.

    Aussi merveilleuses que soient de nombreuses innovations dans le domaine de l'IA - nos téléphones, par exemple, peut certainement faire beaucoup de trucs sympas maintenant - il est important de réfléchir au chemin que nous avons parcouru au cours des 10 dernières années et jusqu'où nous pourrions aller au cours des 10 prochaines, 20 ou 50 ans. Comment se préparer individuellement à cette « ère de l'intelligence artificielle, " et qu'est-ce que cela signifiera pour nous en tant qu'êtres humains individuels, pour notre pays et pour l'humanité dans son ensemble ?


    © Science https://fr.scienceaq.com