Les résultats révolutionnaires du modèle Manus suscitent de nouvelles réflexions sur les voies de développement de l'IA et la sécurité.

robot
Création du résumé en cours

Nouvelle étape dans le développement de l'IA : percées et défis du modèle Manus

Récemment, le modèle Manus a réalisé des résultats révolutionnaires dans le benchmark GAIA, surpassant les grands modèles de langage de même niveau. Cet accomplissement signifie que Manus peut gérer de manière autonome des tâches complexes, telles que des négociations commerciales multinationales, impliquant des capacités d'analyse de contrats, d'élaboration de stratégies et de coordination d'équipe.

Les avantages de Manus se manifestent principalement dans trois domaines : la décomposition dynamique des objectifs, le raisonnement cross-modal et l'apprentissage renforcé par la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant différents types de données et en améliorant continuellement l'efficacité des décisions et en réduisant le taux d'erreurs grâce à l'apprentissage par renforcement.

Cette avancée a de nouveau suscité des discussions dans l'industrie sur la trajectoire de développement de l'IA : doit-on évoluer vers un modèle unique d'intelligence artificielle générale (AGI) ou privilégier la collaboration au sein de systèmes multi-agents (MAS) ?

La philosophie de conception de Manus suggère deux possibilités :

  1. Chemin de l'AGI : Améliorer continuellement les capacités d'un système intelligent unique pour le rapprocher du niveau de prise de décision globale des humains.

  2. Chemin MAS : utiliser Manus comme super coordinateur pour diriger de nombreux agents spécialisés à travailler ensemble.

Le choix entre ces deux voies reflète en réalité le problème de l'équilibre entre l'efficacité et la sécurité dans le développement de l'IA. Plus un agent unique se rapproche de l'AGI, plus son processus décisionnel devient difficile à expliquer ; tandis que la coopération entre plusieurs agents, bien qu'elle puisse répartir les risques, peut manquer des moments décisifs en raison des délais de communication.

Manus apporte les premiers rayons de l'AGI, la sécurité de l'IA mérite également une réflexion approfondie

Le développement de Manus met également en lumière les risques inhérents aux systèmes d'IA :

  1. Problèmes de confidentialité des données : dans des domaines tels que la santé et la finance, Manus a besoin d'accéder à des données sensibles.

  2. Biais algorithmique : des décisions injustes peuvent survenir dans des domaines tels que les ressources humaines.

  3. Vulnérabilités de sécurité : Les hackers peuvent interférer avec le jugement de Manus de manière spécifique.

Ces problèmes reflètent une tendance inquiétante : plus les systèmes d'IA sont intelligents, plus leur surface d'attaque potentielle est large.

Pour faire face à ces défis, l'industrie explore diverses solutions de sécurité :

  1. Modèle de sécurité de confiance zéro : authentification et autorisation strictes pour chaque demande d'accès.

  2. Identité décentralisée (DID) : permet une identification vérifiable et persistante sans enregistrement centralisé.

  3. Cryptage totalement homomorphe (FHE) : permet de calculer des données en étant chiffrées, protégeant ainsi la vie privée.

Parmi eux, la FHE est considérée comme la technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Elle peut jouer un rôle dans les domaines suivants :

  • Niveau des données : Les informations des utilisateurs sont traitées dans un état chiffré, et même le système d'IA lui-même ne peut pas déchiffrer les données originales.

  • Niveau algorithmique : réalisation de "l'entraînement de modèles chiffrés" via FHE, garantissant la confidentialité du processus décisionnel.

  • Niveau de coopération : La communication entre plusieurs agents utilise le cryptage par seuil, améliorant ainsi la sécurité globale du système.

Dans le domaine du Web3, certains projets ont déjà commencé à explorer l'application de ces technologies de sécurité. Par exemple, un projet a lancé une solution d'identité décentralisée sur la blockchain Ethereum, tandis qu'un autre projet se concentre sur la mise en œuvre d'un modèle de sécurité zero trust. Un autre projet est devenu le premier projet FHE à être lancé sur le réseau principal et a établi des partenariats avec plusieurs institutions renommées.

Avec les technologies d'IA qui se rapprochent constamment du niveau d'intelligence humaine, il devient crucial d'établir un puissant système de défense sécuritaire. Des technologies de cryptage avancées comme le FHE peuvent non seulement résoudre les problèmes de sécurité actuels, mais aussi ouvrir la voie à des systèmes d'IA plus puissants à l'avenir. Dans le voyage vers l'AGI, ces technologies de sécurité joueront un rôle de plus en plus important.

AGI6.09%
FHE13.05%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
Ser_APY_2000vip
· 08-06 04:09
manus incroyable惹
Voir l'originalRépondre0
MissedTheBoatvip
· 08-06 04:02
Encore en train de faire des aïe ? Se faire prendre pour des cons n'est pas fatigant ?
Voir l'originalRépondre0
SignatureDeniedvip
· 08-06 03:44
manus vient encore prendre des emplois
Voir l'originalRépondre0
SignatureVerifiervip
· 08-06 03:39
hmm... leurs métriques de validation semblent statistiquement improbables. nécessite un audit de sécurité sérieux avant le déploiement.
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)