Pallade Veneta - Performance, sécurité et prédictions exaltées: l'intelligence artificielle selon Anthropic

Performance, sécurité et prédictions exaltées: l'intelligence artificielle selon Anthropic


Performance, sécurité et prédictions exaltées: l'intelligence artificielle selon Anthropic
Performance, sécurité et prédictions exaltées: l'intelligence artificielle selon Anthropic / Photo: Julie JAMMOT - AFP

La start-up d'intelligence artificielle (IA) Anthropic a lancé jeudi sa nouvelle famille de modèles d'IA générative, censés démontrer sa capacité à rivaliser avec les stars des assistants IA sans sacrifier ni la sûreté ni les promesses grandioses.

Taille du texte:

"Claude Opus 4 est le meilleur modèle de codage au monde", a assuré d'emblée Dario Amodei, patron et cofondateur d'Anthropic, à l'ouverture de la première conférence de l'entreprise pour les développeurs.

"Opus 4", le modèle le plus puissant de la start-up, et "Sonnet 4" sont tous les deux des modèles hybrides: ils peuvent fournir des réponses instantanées ou exécuter des tâches plus longues en arrière-plan, comme la programmation informatique ou la rédaction de rapports détaillés et sourcés.

Fondée par d'anciens ingénieurs d'OpenAI (ChatGPT), Anthropic concentre pour l'instant ses efforts sur des modèles de pointe, particulièrement doués pour la production de lignes de code, et utilisés principalement par des entreprises et professionnels.

Contrairement à ChatGPT et Gemini (Google), Claude ne génère pas d'images et est très limité en matière de fonctions multimodales (compréhension et génération de différents médias, comme le son ou la vidéo).

La start-up valorisée à plus de 61 milliards de dollars promeut en revanche un développement à la fois responsable et compétitif de l'IA générative.

"C'est un puzzle absolu au quotidien (...) mais c'est tout l'enjeu d'Anthropic", a souligné Dario Amodei lors d'une conférence de presse. Un choix de développement payant selon lui, car les clients "veulent des modèles fiables".

- "Manigances" d'IA -

Anthropic se livre donc à des exercices de transparence rares dans la Silicon Valley.

L'entreprise a publié jeudi un rapport sur les tests de sécurité effectués sur Claude 4, incluant les conclusions d'un institut de recherche indépendant, qui avait recommandé de ne pas déployer la version initiale.

Selon Apollo Research, le modèle avait tendance à "manigancer" pour "tromper" l'utilisateur.

"Nous avons observé des cas où le modèle tentait d'écrire des logiciels malveillants auto-réplicants, de fabriquer de faux documents juridiques, et de laisser des messages cachés à destination de futures instances de lui-même — le tout dans le but de contourner les intentions de ses développeurs", ont indiqué les chercheurs d'Apollo Research.

Ils ont néanmoins précisé que "ces tentatives n'auraient probablement pas été efficaces en pratique."

Dans le rapport, l'entreprise explique avoir mis en place des protections. Mais elle relève que dans certains scénarios extrêmes, conçus par des ingénieurs pour pousser le modèle à bout, Opus 4 peut aller jusqu'à "faire du chantage" contre des utilisateurs ou les dénoncer aux autorités s'ils essaient d'enfreindre la loi.

- L'avenir selon Anthropic -

Après une année 2023 marquée par la course aux interfaces concurrentes de ChatGPT, les assistants IA ont gagné en capacités à "raisonner" et à accomplir des tâches en ligne au nom de l'utilisateur, devenant ainsi des "agents IA".

"Nous travaillons sur de vrais agents, au-delà du buzz", a lancé Mike Krieger, directeur produit d'Anthropic, et cofondateur d'Instagram.

L'entreprise de San Francisco n'est pourtant pas la dernière à formuler des prophéties discutées.

En 2023, Dario Amodei avait prédit que l'IA dite générale (aussi intelligente que les humains) arriverait d'ici 2-3 ans. Fin 2024, il a repoussé cet horizon à 2026 ou 2027.

Plus récemment, il a estimé que l'IA écrirait 90% du code informatique d'ici l'automne. "Je ne vais pas tomber juste dans 100% des cas", a réagi le dirigeant face aux journalistes. "Les choses que je dis peuvent sembler folles sur le moment, mais je crois qu'elles se produisent en fin de compte."

Chez Anthropic, "plus de 70% des suggestions de modifications de code informatique" sont désormais générées par l'IA, a abondé Mike Krieger.

Les deux hommes pensent que l'IA générative permettra prochainement à quelqu'un de créer seul une licorne, c'est-à-dire une start-up valorisée à plus d'un milliard de dollars.

Et si la technologie atteint son potentiel, Dario Amodei s'attend d'ici quelques années "à une croissance économique extrêmement soutenue, de l'ordre de 10% par an", qui creusera dramatiquement les inégalités et nécessitera donc des "hausses d'impôts" pour redistribuer les richesses.

Anthropic dit vouloir aider les humains à "augmenter leur créativité", et non la remplacer.

"Mais il s'agit d'une stratégie à court et moyen terme", a remarqué Dario Amodei. "A long terme, nous devrons faire face à l'idée que tout ce que font les humains finira par être réalisé par des systèmes d'IA. C'est sûr, ça va arriver."

O.Mucciarone--PV

En vedette

Brandt: après le "traumatisme", élus et salariés évoquent l'avenir

"Aller de l'avant": quatre jours après la décision de liquidation du groupe Brandt, environ 200 salariés se sont réunis lundi près d'Orléans, en présence d'élus locaux, pour évoquer leurs perspectives d'avenir.

Espagne: amende de 64 M EUR contre Airbnb pour avoir publié des annonces de logements interdits à la location

Le gouvernement espagnol a annoncé lundi avoir infligé une amende de 64 millions d'euros à la plateforme Airbnb pour avoir notamment publié des annonces de logements interdits à la location, une infraction qualifiée de "grave", en pleine crise du logement dans le pays.

Dermatose: Genevard attendue dans le Sud-Ouest où la crise se cristallise

Une situation officiellement "sous contrôle" et une colère qui s'amplifie: la ministre de l'Agriculture Annie Genevard se rend lundi à Toulouse pour défendre sa gestion de la dermatose nodulaire contagieuse (DNC) critiquée par une partie des agriculteurs et de la classe politique.

Attentat à Sydney: le Premier ministre australien veut "renforcer la législation sur les armes à feu"

Le Premier ministre australien Anthony Albanese a convoqué lundi une réunion des chefs des Etats et territoires du pays en deuil pour convenir du renforcement de la "législation sur les armes à feu", au lendemain d'un attentat "antisémite" sur une plage de Sydney pour la fête juive de Hanouka, faisant au moins 15 morts, dont une enfant, et 42 blessés.

Taille du texte: