Le débat sur la possibilité de freiner l’avancée de la Intelligence Artificielle (IA) a pris une ampleur considérable ces derniers temps. Des figures éminentes de l’industrie technologique, des experts en éthique et des responsables politiques s’expriment de plus en plus sur les risques et les opportunités associés à cette technologie révolutionnaire.
Un des sujets les plus controversés est de savoir s’il est possible de limiter son développement sans entraver l’innovation et le progrès globaux.
Intelligence Artificielle : la parole d’Eric Schmidt, ancien CEO de Google
Dans ce contexte, Eric Schmidt, une voix influente dans le domaine technologique, a affirmé qu’il n’est ni pratiquable ni raisonnable d’arrêter le développement de l’IA. Lors de plusieurs interviews, il a souligné que cette avancée est essentielle pour l’avenir de l’humanité, semblable à l’irréversibilité de la révolution industrielle ou de l’adoption de l’électricité.
Lors d’une récente interview avec ABC, il a ajouté qu’il serait « idéal » d’avoir une personne “près de la prise” pour surveiller le processus. Ainsi, Schmidt met en garde contre le fait de laisser cette technologie croître au point d’agir sans contrôle humain. Il a également exprimé en 2023 que la plupart des entreprises technologiques ne sont pas prêtes à éviter de tels risques.
Par ailleurs, alors que les démocraties occidentales envisagent de réguler le développement de l’IA, des pays moins encadrés comme la Chine ou la Russie pourraient tirer parti de cette technologie pour acquérir un avantage stratégique sur la scène mondiale.
Les arguments contre l’Intelligence Artificielle
La communauté scientifique et technologique présente des avis divergents sur la possibilité, ou la nécessité, de freiner l’IA. Des experts tels que Elon Musk, CEO de Tesla et SpaceX, ainsi que le regretté Stephen Hawking, ont régulièrement averti des risques d’une IA avancée non régulée.
Musk a déclaré que l’IA représente « le plus grand risque existentiel pour l’humanité » et appelle les gouvernements à établir des réglementations avant qu’il ne soit trop tard. En effet, en 2023, plus de 1000 experts et personnalités influentes, dont Musk et Steve Wozniak, cofondateur d’Apple, ont signé une lettre ouverte demandant une pause de six mois dans le développement de systèmes IA plus puissants que GPT-4 afin d’évaluer les risques associés.
Ces experts soutiennent que la croissance non contrôlée de l’IA pourrait entraîner des conséquences imprévisibles, allant de l’automatisation massive des emplois à l’émergence de systèmes échappant au contrôle humain. Ils mettent également en garde contre les abus potentiels de l’IA, comme la manipulation de l’information, les armes autonomes et la surveillance de masse.
Cependant, la majorité des entrepreneurs et chercheurs ayant signé la lettre sont, dans le même temps, engagés activement dans des projets liés à l’IA, notamment Elon Musk avec Grok, qui se veut être “la recherche de la vérité pour l’humanité” en cherchant à développer une technologie transparente.
De son côté, Sam Altman, CEO d’OpenAI, a également un point de vue à partager. Bien qu’il ait bâti son empire autour du modèle d’IA avec ChatGPT, il a également déclaré pouvoir éteindre l’IA à l’aide d’une technologie qu’il transporte toujours. En 2023, il a précisé que cet appareil contient un ordinateur capable de “mettre hors tension l’IA”.
Pourquoi, selon les experts, il est impossible de freiner l’avancement de l’IA
Par ailleurs, de nombreux spécialistes soutiennent qu’arrêter le développement de l’IA est impossible en raison de la nature mondiale et décentralisée de la recherche et du développement technologique. D’après cette perspective, le savoir ne peut pas être « désinventé », et les avancées en IA continuent d’émerger à l’échelle mondiale, tant dans les secteurs public que privé.
À ce propos, Geoffrey Hinton, souvent qualifié de père de l’IA moderne, a exprimé son inquiétude face aux risques posés par cette technologie. Néanmoins, il a également reconnu qu’il n’existe pas de moyen viable d’arrêter son progrès sans compromettre des bénéfices significatifs. L’IA transforme déjà des secteurs comme la médecine, l’éducation et la recherche scientifique, enregistrant ainsi des améliorations qui pourraient sauver d’innombrables vies.
Une troisième approche, qui semble séduire de plus en plus de soutiens, plaide pour la régulation de l’IA plutôt que son freinage. Des organisations comme l’Union Européenne ont pris les devants avec des propositions comme la AI Act, une législation visant à réguler le développement et l’utilisation de l’IA en fonction des risques qu’elle présente. L’objectif est de veiller à ce que les systèmes d’IA soient transparents, vérifiables et responsables envers la société.
Dans ce cadre, Brad Smith, président de Microsoft, a souligné la nécessité d’un “manuel d’utilisation” pour l’IA, qui définirait des règles claires pour prévenir les abus et garantir un développement responsable. Dans l’ensemble, il est largement admis que la collaboration entre gouvernements, industries et milieux académiques est essentielle pour éviter des scénarios dystopiques.
Ma Vision
Dans un monde de plus en plus interconnecté, l’Intelligence Artificielle apparaît à la fois comme un outil prometteur et une source de préoccupations. Mon point de vue est que plutôt que de chercher à freiner son développement, il serait plus judicieux de mettre en place des mécanismes de régulation qui garantissent un usage éthique et responsable de ces technologies. Il est impératif que nous engagions un dialogue inclusif impliquant le secteur privé, les gouvernements et la société civile afin de bâtir un cadre qui, tout en favorisant l’innovation, protège les valeurs éthiques et sociales fondamentales de notre société. Ce chemin exige une réflexion collective et une approche proactive face aux défis à venir.
- Source image(s) : defonline.com.ar
- Source : https://defonline.com.ar/ciencia-tecnologia/esta-la-humanidad-a-tiempo-de-frenar-a-la-inteligencia-artificial/