Vidéo originale : https://www.youtube.com/watch?v=4zswRE-iM6E
L'accélération des percées technologiques en matière d'automatisation, de robotique et d'intelligence artificielle a suscité à la fois des visions techno-optimistes de l'abondance sans fin et des craintes techno-pessimistes du chômage et de l'érosion de la vie privée. Comment pouvons-nous évaluer objectivement les opportunités et les défis présentés par ces technologies transformatrices ? Stephen Hicks, chercheur principal de l'Atlas Society, et Robert Tracinski, Senior Fellow, ouvrent la voie dans cette discussion de 45 minutes avec Jennifer Grossman, notre directrice générale, lors de notre 6e gala annuel. Nous vous invitons à écouter ICI ou à lire la transcription ci-dessous.
Line-up of Speakers (panelists): AF-Ana Freund; JAG-Jennifer Anju Grossman; SH-Stephen Hicks; RT-Robert Tracinski
AF : A suivre, l'objectivisme et les tendances technologiques. Les technologies de rupture d'aujourd'hui, de l'intelligence artificielle à la robotique, de la blockchain à la réalité virtuelle, convergent toutes pour conduire à un changement exponentiel, suscitant à la fois l'espoir et la peur. Nos universitaires d'aujourd'hui exploreront quelle réaction est la plus rationnelle, comment se préparer aujourd'hui et comment prospérer dans le monde de demain. Stephen Hicks, professeur de philosophie à l'université de Rockford, auteur de six livres et expert incontesté du postmodernisme dans notre pays, se joindra à nous pour animer ce panel. Nous accueillons également Robert Tracinski, auteur de la célèbre lettre Tracinski et de So Who is John Galt, Anyway ? Bienvenue sur scène.
The Triumph and Glory of Air Conditioning
JAG : D'accord, j'ai reçu quelques commentaires du public : ils aimeraient avoir une raison d'espérer, ils veulent être motivés. Et je pense que cette table ronde est faite pour cela. Vous savez que nous allons également entendre Peter Diamandis ce soir, un homme qui a écrit non seulement Abundance: The Future Is Better Than You Think, mais aussi The Future Is Faster Than You Think. Et, bien sûr, Michael Saylor, qui, avec son ouvrage Mobile Wave, a anticipé bon nombre de ces changements, et qui défend et prône une technologie qui a le potentiel de redonner de la rationalité à notre système financier et de rendre la liberté et les droits de propriété à la race humaine. Alors, Stephen, où nous situez-vous sur l'échelle du pessimisme et de l'optimisme en ce qui concerne la technologie ?
SH : Permettez-moi de m'attarder sur cette question de jugement, sur laquelle je voudrais revenir. Lorsque j'étais à l'université et que j'ai lu Rand pour la première fois, la chose la plus remarquable qui m'a attiré dans les romans était probablement le thème de l'innovation créative. Le personnage d'Howard Roark m'a époustouflé, vous savez, avec ses changements spectaculaires dans le domaine de l'ingénierie, puis en combinant cela avec sa vision créative d'une nouvelle forme d'architecture. Et Atlas Shrugged: Rearden Metal, les nouvelles fonderies sur lesquelles travaille D'Anconia. Le moteur de John Galt. Les possibilités offertes par les nouvelles technologies m'ont stupéfié. Bien sûr, dans les deux romans, il y a une culture environnante avec de nombreux défis sombres. Les vendeurs d'occasion, les copains de toutes sortes, les politiciens terribles, et ainsi de suite. Nous connaissons tous ces types. Néanmoins, le thème général qui m'a parlé en tant que jeune personne était de canaliser le Howard Roark ou la Dagny Taggart qui sommeillent en vous et d'être la personne la plus créative et la plus innovante que vous puissiez être dans votre vie, pour votre propre bénéfice. Et plus largement, sur le plan social.
SH : L'année prochaine, cela fera presque 80 ans, je pense, que The Fountainhead a été publié, et plus d'un demi-siècle, oui, un demi-siècle qu' Atlas a été publié. Et ce genre de Lumières, de rêve américain, de promesse dont parlait Rand est toujours largement présent. Et si nous pensons simplement à ma vie, à notre vie, combien d'autres changements technologiques sont intervenus, malgré toute la noirceur et les adversaires que les gens ont dû combattre en cours de route. Ce qui nous anime dans ce panel, c'est d'essayer d'anticiper certaines de ces innovations technologiques en devenir. Nous pouvons en énumérer quelques-unes. J'ai une liste ici, mais nous pouvons aussi réfléchir à celles qui sont susceptibles d'être transformatrices. Ainsi, en l'espace de 250, presque 300 ans : les machines à vapeur et la révolution industrielle, n'est-ce pas ?
SH : Nous avons l'électricité, les révolutions en matière de communication, les révolutions avec les automobiles et les machines volantes, etc. Puis les transistors, les ordinateurs personnels, l'internet. C'est tout simplement stupéfiant. Et je souhaite toujours que ma voiture volante arrive très, très bientôt. Mais voici une liste qui ne concerne que notre génération. Les monnaies numériques, d'accord ? L'intelligence artificielle et ses différentes formes, d'accord ? L'apprentissage automatique, les intelligences discrètes, puis le travail sur des intelligences plus générales, les produits pharmaceutiques personnalisés en fonction de l'ADN de chaque personne. L'élimination des effets secondaires des produits pharmaceutiques plus génériques ; la biotechnologie ; les pièces de rechange produites à partir de cellules souches, en combinaison avec la robotique, bien sûr ; la robotique dans tous les domaines, mais la robotique en ce qui concerne les opérations chirurgicales ; les nanotechnologies ; les technologies, les utilisations multiples. En ce qui concerne les biotechnologies également : la surveillance, qui peut bien sûr être positive ou négative, mais qui renforce notre sécurité personnelle, nous donne des outils pour être conscients de notre environnement et des menaces et opportunités potentielles qui s'y trouvent.
SH : Les développements énergétiques dans le domaine des biocarburants, les développements en matière de fusion, la question de savoir si la fission va faire son retour, sous une forme améliorée, les technologies de transport. Nous sommes sur le point d'y arriver. Il y a déjà des véhicules auto-conduits qui circulent assez régulièrement. Cela va-t-il être un facteur de transformation ? Les améliorations humaines, génétiques, numériques, les choses qui travaillent plus intimement avec nous que nous ne le sommes nous-mêmes. Et puis, les médias sociaux de deuxième génération, n'est-ce pas ? Les médias sociaux ont déjà transformé notre culture, et ce en 25 ou 30 ans seulement, mais il s'agit encore, d'après ce que je peux voir, d'une technologie pour bébés. Qu'en sera-t-il dans 25 ans ? Et en combinant avec les différentes formes de réalité virtuelle, qui ont bien sûr le pouvoir de transformer l'espace de divertissement personnel, la façon dont nous pratiquons les opérations chirurgicales, etc. Voilà une liste.
SH : Je ne suis qu'un philosophe, je lis sur ces sujets et je suis à la fois enthousiaste et pessimiste à divers égards, c'est vrai, à propos de tous ces sujets. Mais j'ai quelques questions, et ce sont trois questions qui, je l'espère, vont éclairer notre panel. Premièrement, je suis maintenant assez âgé et j'ai suffisamment lu l'histoire pour savoir qu'à chaque fois qu'une nouvelle technologie apparaît, l'opinion se polarise immédiatement. Il y a un groupe de personnes qui disent, c'est incroyable, c'est tellement cool, et qui imaginent toutes les choses que l'on peut faire avec. Et ils sont largement inconscients des inconvénients, du moins dans leurs déclarations publiques. Mais immédiatement, il y a aussi des gens qui disent : "C'est terrible. C'est terrible. C'est la fin de l'humanité. Et ils sont largement inconscients de l'aspect positif de la situation. Et bien sûr, il y a un grand nombre de personnes qui se sont formées à dire, eh bien, nous devons faire des analyses coûts/bénéfices, des analyses de risques, etc.
SH : Mais c'est une position plus sophistiquée. La question est de savoir ce qui se cache derrière l'optimisme ou le pessimisme immédiat, et pourquoi tant de gens tombent dans le camp des techno-optimistes et dans celui des techno-pessimistes. S'agit-il de quelque chose d'universel dans la condition humaine ? Pouvons-nous en tirer des leçons afin d'avoir des discussions plus saines et plus efficaces sur les nouvelles technologies lorsqu'elles apparaissent, et pas seulement des discussions catastrophistes, catégoriques et ainsi de suite ? Voilà pour la première question. La deuxième question que je me pose concerne la boule de cristal. Dans de nombreux cas, j'ai remarqué que les gens dans mon domaine, et je suis philosophe de formation, ont une vision de l'avenir. Notre travail consiste à fournir un certain type de perspective et, espérons-le, de sagesse, notamment en ce qui concerne les questions de valeur liées aux nouvelles technologies, etc.
SH : Mais, en général, les personnes formées en sciences humaines et, de manière encore plus générale, en sciences sociales et politiques, ne sont pas très au fait de la technologie. Et ils sont très réactifs, n'est-ce pas ? Une nouvelle technologie arrive et il leur faut 10 ou 15 ans pour se mettre au courant de ce qu'est cette chose avant d'être en mesure d'apporter un quelconque point de vue à son sujet. Ma question est donc pour nous, objectivistes, de savoir si nous pouvons prédire, dans les dix prochaines années environ, lesquelles de ces technologies sont susceptibles d'être transformatrices. Je pense qu'elles apporteront toutes des améliorations progressives, mais y en a-t-il qui sont susceptibles d'être transformatrices, de sorte que nous puissions les identifier et commencer à nous mettre au diapason, de sorte que lorsque les discussions sur la politique publique, les discussions sur la valeur publique émergeront, nous soyons en mesure d'avoir quelque chose à dire à ce sujet. Et, en étroite relation avec cette question, puisqu'il s'agit d'un groupe objectiviste ou d'un groupe favorable à l'objectivisme, quelle sera la valeur ajoutée spécifiquement objectiviste à cette discussion ? Sur ce, je voulais demander à Rob ce qu'il en pensait. Voulez-vous d'abord répondre à la question de la boule de cristal ?
RT : J'aime bien la question de la boule de cristal parce qu'une partie de mon expérience dans ce domaine, et une partie de la raison pour laquelle je suis dans ce panel, c'est que vers 2016, pour sauver ma santé mentale pendant les élections de 2016, j'ai lancé un site web appelé Real Clear Future, qui avait pour idée de regarder les technologies émergentes, ce qui arriverait dans 5 ans, 10 ans, 15 ans, et cetera. J'ai donc travaillé sur ce projet pendant un certain temps. L'avantage d'écrire sur la technologie, c'est que cela vous donne un sentiment d'optimisme beaucoup plus grand quant à l'avenir. En effet, lorsque vous écrivez sur la politique, c'est toujours, vous savez, tout va mal, et comment se fait-il que les gens n'apprennent jamais ? Et quand vous écrivez sur la technologie, c'est : "N'est-ce pas une nouvelle chose étonnante qu'ils ont faite dans cette autre nouvelle chose étonnante ? Et voici cette autre chose qui est sur le point d'arriver.
RT : Mais en même temps, on voit aussi le problème de l'observation des boules de cristal, qui est qu'elle est intrinsèquement imprévisible parce qu'il s'agit de quelque chose de nouveau. C'est quelque chose qui n'a pas encore été fait. À l'époque, c'est-à-dire vers 2015 ou 2016, on disait : "Nous aurons des voitures autonomes en 2018. Eh bien, nous sommes en 2022. Ils ont quelques petits projets de démonstration ici et là, mais cela n'a pas pris le dessus. Et c'est le côté optimiste. Les gens se trompent. Et du côté pessimiste, il y a un type qui a écrit un article disant, vous savez, dans deux à dix ans, tous les chauffeurs de camion du pays seront au chômage parce que nous aurons des camions auto-conduits. Eh bien, cela ne s'est pas encore produit ou n'est pas près de se produire.
RT : C'est donc intrinsèquement imprévisible parce que vous parlez d'une technologie qui n'a pas encore été créée, et parfois quelque chose qui n'est pas sur votre écran radar devient extrêmement important et prend le dessus. Et parfois, quelque chose dont vous pensez qu'il prendra le dessus l'année prochaine ne se produira pas. Hier soir, j'ai discuté avec quelqu'un qui travaille sur l'énergie de fusion, et vous savez, c'est la vieille rengaine à propos de la fusion, c'est-à-dire que c'est dans 15 ans et que ce sera toujours le cas (rires). Et vous savez, on entend beaucoup dire que c'est enfin en train de se produire, et c'est peut-être le cas, mais c'est une chose tellement difficile et complexe qui implique tant de spécialités différentes qu'il est très difficile de prédire exactement quand cela va se produire. Je pense donc que, d'un point de vue philosophique, l'innovation et le progrès sont le fruit des efforts de nombreuses personnes travaillant ensemble, et non d'une planification centralisée du haut en bas de l'échelle.
RT : En ce qui concerne la fusion, l'un de mes exemples préférés est celui de Bill Clinton qui, lorsqu'il a été élu en 1992, a fait entrer dans son administration un certain Ira Magaziner, grand défenseur de la politique industrielle. C'était l'idée que non, ne l'appelez pas "planification centrale", mais que le gouvernement allait intervenir et décider qui seraient les gagnants et les perdants et quelles technologies soutenir. Un an plus tôt, Ira Magaziner, qui travaillait comme lobbyiste au Congrès, avait témoigné devant le Congrès de la nécessité d'un financement massif de la fusion froide. Il travaillait pour l'université de l'Utah, je crois, où certains se souviendront peut-être qu'ils avaient été très enthousiastes à l'idée que nous disposions d'un dispositif de table fonctionnant à température ambiante et capable de produire de la fusion.
RT : Et il s'est avéré que l'expérience n'était pas du tout reproductible, qu'elle a échoué et qu'elle n'a jamais eu lieu. Mais cela vous donne l'idée que si vous planifiez, ou si vous allez planifier ou prédire ce que sera la nouvelle grande technologie, vous avez cette histoire édifiante de "nous pensions tous que la fusion à froid allait se produire, et c'était un échec total". L'aspect philosophique de tout cela, c'est l'action d'individus qui résolvent des problèmes et se confrontent à la réalité, et qui assument toute cette complexité. C'est pourquoi on ne sait jamais ce qui va marcher et d'où cela va venir. Maintenant, ce que je dirais, c'est que je vais prendre votre premier point, qui est le techno-pessimisme.
RT : Et je pense que c'est très répandu aujourd'hui. Il y a quelques semaines, j'ai fait une interview dans une autre sous-bulletin appelée Symposium avec un certain Louis Anslow, qui dirige un excellent site web et un fil Twitter appelé The Pessimist Archive (les archives du pessimisme). Et vous savez, si vous l'avez déjà vu, c'est très amusant parce qu'il remonte le temps et trouve que chaque panique techno que nous avons aujourd'hui sur la façon dont la technologie est en train de ruiner le monde n'est pas nouvelle. Il s'agit d'une rechute ou quelque chose comme ça. Il y a cent ou cent cinquante ans, on parlait de la bicyclette, du roman de poche, (rires), de tout : il a raconté avec brio comment le New York Times a racheté Wordle, un jeu de mots en ligne. Le New York Times est célèbre pour ses mots croisés. Il est revenu en arrière et a découvert qu'il y a cent ans, le New York Times publiait un article sur le terrible fléau des mots croisés - comment ils ruinent l'esprit des gens (rires).
RT : Il n'y a donc littéralement aucune panique technologique sur la façon dont la technologie ruine le monde qui n'ait pas été reprise d'un texte antérieur. Louis Anslow parle du fait qu'une nouvelle technologie passe du statut de chose effrayante qui va détruire le monde à celui de chose normale de tous les jours que l'on considère comme allant de soi. J'ajouterais une troisième étape : c'est alors la tradition historique que nous chérissons qui est menacée par la nouvelle technologie qui arrive, n'est-ce pas ? (rires). Et je pense que, philosophiquement, cela vient d'un préjugé contre la raison, vous savez - Adam et Eve mangeant la pomme, mangeant du fruit de l'arbre de la connaissance, ce préjugé de longue date contre l'idée que l'esprit va nous mettre dans le pétrin.
RT : Et aussi, quand on pense à ce que fait la technologie, elle est perturbatrice, elle change les choses. Et vous savez, c'est en quelque sorte une chose naturelle que si vous regardez la plus grande partie de l'histoire de l'humanité, le changement s'est produit - mais il s'est produit à une échelle lente où, au cours d'une vie de 70 ans ou probablement de façon plus réaliste de 50 ans, (rire), étant donné les changements de longévité, peu de choses dans votre vie changeraient. Le mode de vie des gens n'a pas beaucoup changé. Ce n'est qu'au cours des 200 dernières années que nous avons connu ce décollage géométrique et que nous vivons à une époque où les choses changent radicalement entre le moment où l'on est enfant et le moment où l'on devient adulte. Et je pense que les gens ont cette réaction si vous n'avez pas la confiance en vous d'utiliser votre esprit pour comprendre le monde et vous adapter au changement et comprendre comment les choses changent et comment y réagir.
RT : Je pense que ce qu'il faut inculquer, c'est le sens de l'appropriation et du contrôle de sa propre vie et de considérer la technologie non pas comme une chose qui vous submerge passivement, qui change votre monde et qui vous effraie et vous rend confus, mais plutôt comme une chose qui me donne des tas d'outils formidables qui me permettent, en tant qu'être humain, de prendre ma vie en main et de m'adapter, et pas seulement de m'adapter à la nouvelle technologie, mais d'utiliser la nouvelle technologie pour faire toutes sortes de choses passionnantes. C'est de cette mentalité dont nous avons besoin. Et pour revenir à ce que j'ai aimé dans ce que Stephen a dit à propos des romans d'Ayn Rand, je pense que l'une des choses les plus révélatrices est que lorsqu'elle a écrit The Fountainhead, son titre de travail a longtemps été Second Hand Lives (Vies de seconde main).
RT : Et il faisait référence à cette idée de l'usager d'occasion - et des vies d'occasion de gens comme Ellsworth Toohey et Peter Keating - et elle a changé le titre du roman en The Fountainhead (La tête de la fontaine). Pourquoi a-t-elle fait cela ? Parce que le roman ne parlait pas d'Ellsworth Toohey et de Peter Keating. Il ne s'agissait pas des méchants, ni des vendeurs d'occasion. Il ne s'agissait pas de toutes les choses, de toutes les terribles choses qui se produisaient. Il s'agissait d'Howard Roark. Il s'agissait d'un homme qui sortait de chez lui, faisait des choses nouvelles et innovantes et pensait à des choses auxquelles personne n'avait pensé auparavant. Et c'était le centre du roman. Atlas Shrugged : Je suis tombé amoureux d'Atlas Shrugged à cause de Dagny Taggert, cette femme qui se lance dans la construction d'une ligne de chemin de fer dans un délai imparti, avec tous ces obstacles, et qui est toujours en train de résoudre des problèmes et de surmonter les obstacles, ce que j'appelle une culture de la réussite. Je pense que c'est l'essence même de ce qu'Ayn Rand, ses romans et sa philosophie ont à apporter au monde, l'idée d'une culture de l'accomplissement où l'on s'oriente toujours vers le monde extérieur : "J'ai la capacité de le comprendre, de faire de nouvelles choses, de créer des choses", et cela devrait être le centre et l'objectif de la vie. C'est donc là que je voulais m'arrêter.
SH : Pour répondre à la question sur la boule de cristal, je vais commencer par l'intelligence artificielle et la robotique, et la frontière entre ces deux domaines me semble être un exemple très clair de toutes les questions qui se posent, mais elle peut nous donner une sorte de spécificité. Depuis 200 ans, la robotique a transformé notre culture et des machines de plus en plus intelligentes ont été créées à partir de calculatrices de poche et de puces intégrées, etc. Nous sommes aujourd'hui à l'aube d'une nouvelle révolution dans ce domaine. Certains des progrès réalisés sont tout simplement stupéfiants, qu'il s'agisse de vaincre des joueurs d'échecs ou de résoudre des problèmes mathématiques qui nécessitaient auparavant quelque chose de l'ordre de 100 000 algorithmes à calculer séparément, en les soumettant à un processus d'apprentissage automatique et en les réduisant à quatre algorithmes à calculer.
SH : Tous les gains, les connaissances et la productivité qui en découleront, mais les mêmes problèmes se posent en ce qui concerne l'IA et la robotique. Et l'un des problèmes est que cette fois-ci, la réaction est différente . L'une de mes questions est donc de savoir si la réaction sera vraiment différente cette fois-ci ou s'il s'agira simplement d'un processus incrémentiel, comme nous l'avons vu pendant 2000 ans. Est-ce que cela va perturber non seulement qualitativement, la façon dont nous devons penser à ce que c'est que d'être un être humain, ou à la vie professionnelle, à la politique, etc. C'est ce à quoi vous faisiez allusion.
SH : Nous avons eu 70 ans pour nous habituer à cette nouvelle technologie, puis 40 ans, puis 15 ans, et maintenant nous avons 4 mois et nous devons être à la hauteur de la nouvelle technologie. Et peut-être que nous ne sommes pas préparés à cela sur le plan cognitif. Cette fois-ci, les problèmes sont différents. Du point de vue des politiques publiques, les impacts économiques sont importants et les gens craignent immédiatement pour leur emploi, par exemple. Et il ne s'agit pas seulement des emplois traditionnels de cols bleus, des personnes qui retournent les frites et coupent les pommes de terre chez McDonald's, n'est-ce pas ? Il ne s'agit pas seulement du fait que des robots peuvent faire cela, mais aussi des emplois traditionnels de cols blancs, de tous les emplois de secrétariat, de tous les traducteurs, de tous les transcripteurs médicaux, des personnes qui déposent et traitent les demandes d'assurance, et ainsi de suite, avec toutes les analyses automatiques, et des centaines de milliers de nouveaux avocats qui lisent tous les cas lors de leur formation juridique initiale pour trouver tous les précédents, et ainsi de suite.
The Message of Alexander Graham Bell
SH : Tous ces emplois vont donc disparaître. Et que se passera-t-il alors ? C'est une autre catégorie. Ensuite, il y a les implications politiques : toutes ces nouvelles technologies d'IA et de robotique peuvent être utilisées au niveau national par de mauvais gouvernements pour menacer des droits qui sont importants pour chacun d'entre nous. Mais aussi, dans un contexte de politique étrangère, toutes ces technologies peuvent être utilisées par des méchants étrangers pour saper notre mode de vie et constituer une menace sous diverses formes, etc. Et puis, c'est encore un peu de la science-fiction, mais si nous dépassons le stade de toutes les intelligences discrètes, être capable de parler à mon téléphone ou à Alexa ou de me frayer un chemin dans l'arborescence téléphonique et, je l'espère, de manière plus intelligente (rires) lorsque j'essaie d'atteindre quelqu'un qui peut résoudre mon problème, toutes ces tâches d'intelligence discrète, spécifiques à la science-fiction et à la politique étrangère, peuvent être utilisées par des personnes qui ne sont pas d'accord avec les principes de la science-fiction, toutes ces tâches d'intelligence discrète, d'intelligence spécifique pour développer des machines qui peuvent en fait conceptualiser et ensuite faire de la sémantique et de la syntaxe sérieuses et penser en termes de récits et de théories, y aura-t-il alors un changement du statut humain dans ce nouveau type de monde de l'IA ? J'ai des idées sur chacune de ces questions, mais permettez-moi de vous demander ce que vous pensez de l'IA et de la robotique.
RT : AI : Je suis très intéressé, et très excité, parce que je pense que quelqu'un est venu avec cette idée d'une technologie à usage général, et qu'il a étudié l'histoire de la croissance économique et du changement technologique. Et ils ont dit que les grandes augmentations de productivité, les grands bonds en avant viennent de quelque chose qui est une technologie d'usage général. Cela signifie qu'il s'agit d'une avancée technologique qui n'affecte pas qu'un seul domaine, mais qui touche l'ensemble de l'économie et de la société. Elle modifie toutes sortes de choses. Il a donc un effet général. Pour vous donner une idée de la rareté des véritables progrès technologiques dans la source que j'ai consultée, la dernière personne à avoir identifié le dernier progrès technologique était l'électrification. Vous savez (rires), il y a une centaine d'années, ce processus qui a commencé dans les années 1880, mais qui s'est achevé dans les années 1920, a vu l'énergie électrique devenir largement disponible, ce qui a tout transformé, des appareils ménagers au fonctionnement des usines, en passant par la radio et les communications, parce qu'il y avait quelque chose sur lequel on pouvait brancher la radio, et ainsi de suite.
RT : Si l'on cherche à savoir quelle est la nouvelle technologie à usage général, l'une des théories, qui me semble très pertinente, est que l'IA pourrait être la technologie à usage général parce qu'elle représente un bond en avant dans l'automatisation. Ainsi, à partir de la révolution industrielle, l'automatisation a commencé à prendre la forme d'une machine qui, alimentée par une machine à vapeur, peut faire fonctionner un métier à tisser et tisser du tissu, n'est-ce pas ? C'est l'une des grandes innovations de la révolution industrielle. On conçoit donc une machine spécialement conçue pour accomplir une certaine tâche, puis on l'alimente en vapeur ou, plus tard, en d'autres types d'énergie. Le niveau d'automatisation suivant consiste à concevoir une machine capable de faire un certain nombre de choses différentes, ce qui est beaucoup plus récent, puis à programmer un code numérique que l'on peut mettre à jour pour obtenir une machine CNC, une machine à découper qui peut prendre la forme que l'on souhaite. Il suffit de programmer la forme souhaitée et la mèche la découpe, ce qui permet de personnaliser les choses et d'être beaucoup plus flexible.
RT : Il ne s'agit donc pas d'une machine développée sur mesure pour créer une pièce particulière, mais d'une machine qui peut faire beaucoup de choses différentes. L'étape suivante, que l'IA promet selon moi, est une sorte d'automatisation encore plus poussée que l'on peut programmer. Vous pourriez avoir une machine qui se programme elle-même pour effectuer de nouvelles tâches, et qui comprend comment, et développe, en fait écrit, son propre code et apprend comment effectuer une tâche. Je pense que c'est très intéressant. C'est vraiment fascinant. Il s'agit d'une sorte de technologie à usage général qui offre la possibilité de créer de vastes changements dans de nombreux domaines différents. Des choses comme les voitures auto-conduites, qui ont pris du retard, mais qui sont encore en cours de développement.
RT : Et l'idée qu'au lieu de devoir monter dans une voiture et conduire, j'ai passé des heures à aller d'un endroit à l'autre. Je peux m'asseoir à l'arrière et lire quelque chose ou, vous savez, faire une sieste ou quoi que ce soit d'autre pendant que la voiture roule toute seule. Maintenant, en ce qui concerne le scénario effrayant, qu'est-ce que cela fait à l'emploi ? Est-ce que c'est différent cette fois-ci, parce que les gens ont toujours cette sorte de luddite, qui se dit : quand les machines tisseront le tissu, que se passera-t-il ? Nous perdrons tous notre emploi. C'est Ned Ludd qui, selon la légende, a brisé l'un de ces métiers à tisser motorisés parce qu'il nous privait tous de notre travail de tisserand. Et bien sûr, ce qui s'est passé au cours des 200 dernières années, c'est qu'il n'y a pas eu de perte d'emploi.
RT : Cela a en fait créé une plus grande productivité et vous finissez, au lieu de tisser une étoffe à la fois, par avoir un homme qui travaille, qui gère les machines et qui tisse des centaines d'étoffes et des centaines de boulons d'étoffe à la fois. Cela ne supprime donc pas les emplois. Il les rend plus productifs. L'IA sera-t-elle différente ? Et c'est, je pense, la façon dont je vois les choses, et juste pour donner un bref aperçu, c'est que je pense que ce qui va se passer, c'est, oui, qu'elle va certainement manger un tas de cols bleus, un tas d'emplois de cols blancs aujourd'hui. Pensez à Legal Zoom qui est un bon exemple de cela. Vous avez ce site web qui vous permet de faire toutes sortes de choses juridiques qui n'étaient que de la paperasserie, remplir des papiers que vous auriez normalement dû faire faire par un avocat.
RT : Il suffit d'aller sur ce site web et de le faire soi-même, et il vous aide à choisir les bonnes choses à faire. Il ne s'agit même pas d'une technologie sophistiquée, mais c'est le genre de chose qui va se produire. Mais ce que je pense, c'est que l'IA augmentera la volonté humaine, elle suivra le même schéma que celui que nous avons connu depuis la révolution industrielle. Elle augmentera l'activité humaine : l'IA effectuera pour vous des tâches qui auraient normalement nécessité beaucoup de travail, beaucoup d'efforts par cœur qui peuvent être facilités, automatisés par l'IA, et les êtres humains devront toujours faire la réflexion conceptuelle derrière cela pour décider ce que l'IA doit faire, pourquoi elle doit le faire ? Quelle est la stratégie et le plan d'ensemble ? Mais je pense que l'implication est que cela va exiger davantage de la part des humains, qui devront alors s'assurer qu'ils ne sont pas simplement ceux qui mélangent les papiers, parce que les machines peuvent le faire. Vous devez être le type qui se charge de la réflexion conceptuelle de haut niveau. Je pense donc qu'il ne s'agira pas de supprimer des emplois, mais d'en créer de plus productifs. Mais en même temps, des emplois plus exigeants en termes d'exercice des facultés humaines uniques de pensée conceptuelle et de créativité, plutôt que de nombreux emplois actuels où les gens mélangent des papiers.
JAG : Très bien, il nous reste environ 15 minutes. J'espère que nous pourrons poser une ou deux questions, mais si ce n'est pas le cas, nous ferons une pause déjeuner après cela et vous aurez l'occasion de poser vos questions à l'un d'entre eux.
SH : Je voudrais faire quelques commentaires sur l'intelligence artificielle et la robotique. Je suis extrêmement optimiste quant à l'avenir de toutes ces choses, mais je pense qu'il y aura des défis à relever, non seulement pour faire face à l'obstruction des décideurs politiques et des techno-pessimistes de toutes sortes, mais aussi pour résoudre les problèmes réels qui sont intégrés dans les progrès technologiques. Et je pense qu'une bonne philosophie comme l'objectivisme a un rôle à jouer pour apporter une valeur ajoutée. Prenons par exemple la question des nouveaux types d'emplois qui sont créés. Il y a un mois, j'ai consulté une étude de McKinsey. Ils ont suivi toutes les technologies au cours des dernières années, je crois qu'ils sont remontés jusqu'à 1880 environ, mais ils ont constaté que pour chaque emploi détruit de manière créative par les nouvelles technologies, 2,6 nouveaux emplois sont créés.
SH : Et ils ne sont pas allés jusqu'à dire qu'il s'agissait d'une constante universelle, mais que c'était la moyenne au cours du dernier siècle et demi. C'est assez impressionnant. Mais il y a aussi la question du type d'emplois créés, car les emplois qui sont détruits de manière créative sont ceux que les robots peuvent faire, n'est-ce pas ? Les emplois en Chine que les machines peuvent faire. Ce sont les emplois ennuyeux et répétitifs qui sont les premiers à être remplacés. D'un côté, les gens protègent leur emploi et ne veulent pas le perdre. En même temps, en tant qu'êtres humains, nous n'aimons pas faire ce genre d'emplois répétitifs et déshumanisants, mais nous avons une énorme inertie culturelle qui fait que les gens restent dans des emplois déshumanisants en reconnaissant que leur travail est déshumanisant, mais ils ne font rien pour y remédier.
SH : C'est une question de valeurs. D'où vient ce manque d'ambition pour sa vie personnelle ? Est-ce une question de ne pas avoir développé le type d'habitudes cognitives qui vous permet de penser que vous pouvez sortir dans un monde incertain, faire face à de nouveaux défis et trouver un moyen de résoudre le problème ? Vous n'avez pas cette confiance en vous parce que vous n'avez pas reçu le bon type d'éducation. Si nous pensons qu'il s'agit de technologies transformatrices et de technologies générales, au sens où Rob les définit ici, alors il y aura un problème de cognition sociale parce qu'il y aura une minorité significative de personnes qui feront cette transition avec bonheur, non pas sans effort, mais en douceur. Mais il y aura un très grand nombre de personnes qui ne feront pas cette transition.
SH : Et ils vont constituer une force culturelle. Ils seront une force politique, et nous devons être en mesure de dire quelque chose à ce sujet. Il se peut que nous disions alors que nous devons reparler de l'éducation, parce que le système éducatif devrait préparer les gens à entrer dans l'environnement adulte tel que nous pensons qu'il sera pour eux dans 10 ou 12 ans. Et l'établissement d'enseignement actuel échoue lamentablement dans cette tâche. Il s'agit donc d'un problème d'éducation, mais nous devons alors présenter les meilleurs arguments philosophiques dans le domaine de l'éducation. L'autre chose à laquelle je pensais, c'est qu'il y a de véritables questions qui se posent avec ces nouvelles technologies dans la sphère des valeurs. Cette question semble relever davantage de l'épistémologie cognitive. Mais pensons à l'exemple des voitures autonomes. Je crois savoir que la technologie est assez avancée. Je sais qu'il y a des camions autonomes qui livrent des choses, vous savez, d'importantes tournées de bière entre Colorado Springs, où Coors est fabriquée, jusqu'à Denver sur une base assez régulière. Tout a été mis au point. Et les voitures de Google ont été partout, n'est-ce pas ? Elles cartographient tout. C'est important.
RT : John Deere vient d'annoncer un tracteur à conduite autonome.
SH : Oui, c'est exact. Tout cela existe donc, mais il y a un vrai problème philosophique. D'après ce que j'ai compris, une grande partie du ralentissement est liée à l'assurance, parce qu'une fois que les véhicules autonomes seront sur la route, des accidents se produiront. Mais qui est responsable de l'assurance lorsque l'accident se produit ? Pour que les véhicules autonomes puissent circuler sur les routes, leurs algorithmes devront intégrer des décisions pour les différents scénarios qui se présenteront. Donc, vous savez, ils roulent sur la route. Je vais en inventer un tout de suite. Et, je ne sais pas, il y a un feu d'artifice qui se déclenche ici et qui fait sursauter un petit enfant ici qui court dans la rue, mais trois petites dames âgées là-bas qui courent dans la rue, et est-ce que la voiture va alors heurter les petites dames âgées ?
SH : Eh bien, ils sont trois, mais ils sont vieux, n'est-ce pas ? (rires), ou bien la voiture fait une embardée et heurte le petit enfant ? Il n'y en a qu'un, mais il est jeune. Nous nous retrouvons donc immédiatement face aux problèmes de chariots que l'on retrouve partout sur Internet, n'est-ce pas ? Il s'agit bien sûr d'une série d'exercices abstraits amusants, mais qui ont des applications dans le monde réel parce que toutes ces questions de valeur doivent être réglées par les philosophes afin que les ingénieurs en informatique puissent les programmer dans les algorithmes et que les compagnies d'assurance et les régulateurs puissent s'en réjouir. Et nous pourrons alors avoir des véhicules auto-conduits sur les routes. Les philosophes qui travaillent aujourd'hui dans le domaine de l'éthique ne font donc pas un très bon travail, n'est-ce pas ? Nous pourrions dire qu'il y a une proposition de valeur pour nous si nous avons un bon système éthique et que nous pouvons faire quelque chose dans ce domaine.
JAG : Oui. Deuxièmement, si le CDC programme la voiture, nous savons pour qui elle va se déporter, donc...
RT : Mais je pense que nous devrions, je veux juste soutenir cette chose à propos de la question psycho épistémologique, mais je pense que nous devrions aller aux questions avec ce que nous avons.
JAG : Oui, faisons-le. C'est très bien. Oui, c'est ça. Nous avons huit minutes. Donc, un tour rapide. Quelqu'un a une question ?
Question : Tout d'abord, encore une fois. Ce que vous venez d'aborder, l'aspect éthique, c'est ce qui me fascine et me préoccupe. Nous parlons d'intelligence artificielle, tout le monde parle de la partie intelligence, pas de la partie artificielle. Je suis très préoccupé par les réflexions sur l'éthique parce que, je veux dire, allons-nous avoir des programmeurs passionnés par l'éthique objectiviste ? C'est peu probable. Et si ces choses sont capables d'apprendre, comme les humains apprennent, et si nous regardons nos systèmes éthiques et la façon dont nous nous comportons, qu'est-ce qui nous dit que nous n'aurons pas une chose qui apprend à détruire, et pourquoi penserions-nous un instant qu'elle développerait une sorte de système éthique merveilleux, agréable, qui ne serait pas nuisible aux autres et juste avantageux pour elle-même ? Parce que, comme j'aime à le dire, Hobbes avait raison.
SH : Si vous le voulez bien, je vais d'abord répondre à cette question. Oui, je pense que la valeur de l'intelligence artificielle et de la robotique est fondamentale. Je veux dire qu'il y a les questions cognitives et les questions techniques, et qu'une grande partie de ces questions se cache derrière les craintes. Et les craintes portent principalement sur la valeur. Nous disons donc : supposons que nous ayons des machines informatiques beaucoup plus intelligentes que nous ne le sommes aujourd'hui. Est-ce une bonne ou une mauvaise chose ? Et cela dépend de votre cadre de valeurs. Et si nous revenons aux cas humains, supposons que nous disions, d'accord, Albert Einstein, peut-être qu'Albert Einstein est 2,3 fois plus intelligent que moi. Est-ce une bonne ou une mauvaise chose ? Et cela dépend si Albert Einstein est un bon ou un mauvais gars, n'est-ce pas ?
SH : C'est donc son intelligence, qui est un pouvoir qui peut être utilisé pour le bien ou le mal. Ce n'est pas le pouvoir en soi. La même chose va donc se produire dans le cas des machines qui pourraient alors être des multiples d'intelligence en plus que nous, tant que les machines ont en elles le bon type de cadre de valeur. Quel est ce cadre de valeurs ? Ou, si nous allons du côté de la robotique, vous savez, comme toujours, nous devons aller à Terminator, n'est-ce pas ? Et donc Arnold Schwarzenegger, d'accord ? Ce genre de choses. Nous disons alors qu'il va y avoir ces robots et qu'ils seront plus rapides, plus puissants. Ils ne se fatiguent pas plus que nous. Est-ce une bonne ou une mauvaise chose ? Mais c'est exactement la même question en parallèle. Quelqu'un comme Arnold Schwarzenegger, dans la fleur de l'âge, était quoi, quatre fois plus fort que moi, (rire) je le suis.
SH : Est-ce une bonne ou une mauvaise chose ? Eh bien, c'est une bonne chose si Arnold Schwarzenegger est un bon gars, et c'est une mauvaise chose s'il représente en quelque sorte une menace pour moi. La technologie des robots n'est donc pas bonne ou mauvaise en soi. Tout dépend du cadre de valeurs qui est codé dans le robot. Et, bien sûr, nous pouvons les combiner. Nous avons alors des machines qui sont non seulement plus intelligentes que nous, mais aussi, physiquement, plus capables que nous. Il s'agit alors d'un diagramme de Venn représentant exactement le même problème. Je pense donc que vous avez raison, c'est exactement là que se situe l'action, lorsqu'il s'agit de définir l'éthique et les valeurs et de les intégrer au développement technologique.
JAG : Encore une question.
RT : Attendez. Je voudrais juste dire que je ne suis pas d'accord avec une partie de cela parce que je pense que trop de choses ont été empoisonnées par Hollywood, n'est-ce pas ? L'art, l'art et les films en particulier, nous aident à créer des modèles de ce à quoi les nouvelles technologies vont ressembler. Quel est le modèle que nous avons obtenu pour l'IA ? Il y a Hal 9000 : "Je suis désolé Dave, j'ai bien peur de ne pas pouvoir faire ça." Oui. Les personnes d'un certain âge le reconnaîtront. Il y a Terminator, il y a, je suppose, Altron pour les enfants qui regardent les films Marvel de nos jours. D'accord ? Donc, vous savez, le modèle que nous avons est que l'IA va prendre le dessus et qu'elle sera malveillante. D'un point de vue philosophique, je pense que l'IA n'a pas de volonté propre. C'est la raison pour laquelle nous la développons. C'est pour qu'elle puisse faire des choses pour nous, n'est-ce pas ?
RT : Il n'a pas de volonté propre, il n'a pas de motivation. De quoi a besoin un robot, n'est-ce pas ? Mon robot n'a pas de besoins, il n'a pas de motivation. Je pense que c'est la raison pour laquelle les robots ne deviendront pas plus intelligents que nous dans le sens où ils ne seront pas capables d'une conscience conceptuelle comme nous le sommes. Mais c'est aussi la raison pour laquelle, vous savez, cette idée que les robots vont prendre le contrôle, nous contrôler et nous concurrencer d'une manière ou d'une autre. Je pense qu'ils seront des outils pour nous. La question est donc de savoir s'il faut craindre les personnes qui développent et utilisent la technologie et leurs motivations, tout comme il faut le faire pour toutes les technologies existantes. Il faut les craindre et les espérer. On espère qu'ils seront bons et on craint qu'ils soient mauvais, mais les machines elles-mêmes ne sont pas le problème.
JAG : Très bien, Ahmer, je vous vois hocher la tête au fond, voulez-vous intervenir Ahmer ?
Question : Je suis d'accord avec vous. J'ai une formation en robotique et en IA, donc je suis tout à fait d'accord. J'ai hoché la tête pour dire que j'étais d'accord avec vous. Une grande partie des conversations sur l'IA et la robotique est actuellement détenue par Hollywood. Ces technologies suscitent beaucoup de craintes. Ces technologies sont là pour nous créer un avenir abondant, et nous devons l'adopter et le façonner. C'est tout. Je voudrais juste ajouter ceci.
Question : Je peux être très bref.
Jennifer Grossman: Here is the Defiant Speech Mark Zuckerberg Should Give to Congress
JAG : Très bien, nous avons trois minutes.
Question : Je m'appelle Farsam. Je dirige un incubateur technologique dans la Silicon Valley. J'étais là il y a deux jours et je suis venu pour cet événement. Je suis très, très préoccupé par l'abrutissement généralisé de la société auquel nous assistons. Et je crois malheureusement qu'une grande partie de la technologie a été détournée de manière inappropriée. En ce qui concerne les schémas de valeurs, on peut dire que le travail que nous faisons en tant que seul groupe explicitement objectiviste qui utilise l'épistémologie objective appliquée, et une partie de la conception du travail que nous faisons, y compris l'intelligence artificielle, l'autonavigation. Mais cela devient très délicat. Je ne pense pas qu'il y ait un plus grand anti-concept, pour reprendre la notion d'anti-concept de Rand, que la notion culturellement décontractée de l'IA, qui est, pour la génération Z, juste le droit qui va être alimenté par eux, par la façon dont la Silicon Valley calcule déjà de manière très préméditée comment tout va être traité sur le plan commercial.
Question : Il va donc y avoir une sorte d'IA woke-isme, ce qui semble bizarre, mais qui va se transformer et se fondre dans les pratiques culturelles de l'état. Et je pense que nous n'en sommes qu'aux premiers chapitres. La plupart des personnes ici présentes ont probablement vu The Social Dilemma. Je travaille avec des personnes qui sont attachées à ce principe, bien qu'elles soient imprécises et qu'elles fassent appel à l'étatisme législatif. L'amalgame entre l'artificiel et l'intelligence suscite actuellement une réelle inquiétude, et dans la mesure où nous chérissons et plaçons au cœur de notre philosophie la notion de libre arbitre et la manière dont nous conceptualisons et utilisons notre volonté, nous sommes très préoccupés par l'érosion progressive de l'intelligence artificielle. Ce que nous observons, c'est l'érosion progressive de l'intelligence de l'individu moyen et de l'utilisation de son libre arbitre, de sa faculté de libre arbitre. Et il y a beaucoup de preuves psychologiques de cela à l'heure actuelle. Et il faut une analyse intergénérationnelle pour identifier et voir ce qui est en train de disparaître à mesure qu'une sorte de subjectivisme et de droit s'installe face à cet appareil culturel. J'aimerais donc vous demander si, pour moi, l'intelligence artificielle et l'apprentissage automatique sont une chose, mais un système d'intelligence artificielle n'aura jamais de valeurs. Il n'aura jamais de boussole morale, et c'est aux concepteurs qu'il incombe à 100 % de déterminer comment il va fonctionner.
RT : Oui, l'une des choses que je voudrais mentionner à ce sujet est qu'il y a un revers au pessimisme techno de "les robots vont s'élever et nous détruire". Il y a un techno-utopisme qui dit "oh, les robots vont faire tout notre travail à notre place pour que nous puissions tous vivre avec le revenu de base universel". Le gouvernement nous donnera un chèque et nous vivrons tous dans l'opulence. Et quelqu'un a appelé cela le communisme de luxe entièrement automatisé que nous aurons parce que les machines feront tout le travail. Je pense d'ailleurs que le premier à avoir défendu cette idée est Karl Marx, qui pensait que ces usines, ce nouveau système d'usines, cette nouvelle production industrielle étaient géniaux. Vous n'aurez plus besoin d'avoir un travail régulier. Vous pourrez simplement traîner et faire ce que vous voulez, être agriculteur le matin et critique, critique musical l'après-midi.
RT : Et les usines produiront tout pour vous. Ce rêve utopique a donc toujours existé. Mais je pense que la réponse est, et je pense que Stephen est sur la bonne voie, que l'approche de l'éducation doit changer pour l'ère de l'automatisation, c'est-à-dire que vous devez devenir un apprenant tout au long de votre vie. Je ne vais pas me bourrer le crâne de compétences jusqu'à l'âge de 18 ans pour ensuite aller travailler le reste de ma vie en utilisant ce que j'ai appris avant d'être adulte, vous allez devoir constamment apprendre de nouvelles choses, ingérer de nouvelles méthodes de travail et de nouvelles technologies, et vous engager pleinement à penser au niveau conceptuel et à faire les choses que les machines ne peuvent pas faire.
AF : Nous pourrons poursuivre cette conversation pendant notre pause déjeuner de 30 minutes.
JAG : Et je voudrais aussi dire, pour ceux d'entre vous qui ne sont pas sur Clubhouse, que nous continuons ce genre de conversations, à la fois celle que nous avons eue tout à l'heure et celle-ci, et celle que nous allons avoir cet après-midi. N'hésitez donc pas à contacter l'un des membres du personnel de l'Atlas Society si vous n'êtes pas inscrit à Clubhouse pour savoir comment nous pouvons vous y inviter, car nos chercheurs y sont inscrits et ils brillent. David et Stephen viennent de faire une conférence de 90 minutes sur la philosophie hier soir. C'est donc un autre endroit où nous pouvons poursuivre cette conversation.