Maison Périphériques technologiques IA L'Université Tsinghua prend l'initiative de publier une évaluation multimodale MultiTrust : Quelle est la fiabilité de GPT-4 ?

L'Université Tsinghua prend l'initiative de publier une évaluation multimodale MultiTrust : Quelle est la fiabilité de GPT-4 ?

Jul 24, 2024 pm 08:38 PM
工程 Grand modèle multimodal

LUniversité Tsinghua prend linitiative de publier une évaluation multimodale MultiTrust : Quelle est la fiabilité de GPT-4 ?
La rubrique AIxiv est une rubrique où des contenus académiques et techniques sont publiés sur ce site. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com

Ce travail a été initié par l'équipe d'innovation de la théorie fondamentale dirigée par le professeur Zhu Jun de l'Université Tsinghua. Pendant longtemps, l'équipe s'est concentrée sur les problèmes actuels de goulot d'étranglement dans le développement de l'intelligence artificielle, a exploré les théories originales de l'intelligence artificielle et les technologies clés, et se situe au premier niveau international dans la recherche sur les théories de sécurité contradictoires et les méthodes d'algorithmes intelligents. Il a également mené des recherches approfondies sur la robustesse et l’efficacité contradictoires de l’apprentissage profond, sur des problèmes courants de base tels que l’efficacité de l’utilisation des données. Les travaux pertinents ont remporté le premier prix du Wu Wenjun Artificial Intelligence Natural Science Award, publié plus de 100 articles CCF de classe A et développé la plate-forme open source d'algorithmes d'attaque et de défense de contre-attaque ARES (https://github.com/thu-ml/ares) , et réalisé des produits brevetés. Transformez l'apprentissage et la recherche en applications pratiques.

Les grands modèles de langage multimodaux (MLLM) représentés par GPT-4o ont attiré beaucoup d'attention en raison de leurs excellentes performances dans plusieurs modalités telles que le langage et les images. Ils sont non seulement devenus le bras droit des utilisateurs dans leur travail quotidien, mais ont également progressivement pénétré des domaines d'application majeurs tels que la conduite autonome et le diagnostic médical, déclenchant une révolution technologique.
Mais les grands modèles multimodaux sont-ils sûrs et fiables ?

LUniversité Tsinghua prend linitiative de publier une évaluation multimodale MultiTrust : Quelle est la fiabilité de GPT-4 ?

                                                                                                                                                                                                                   Comme le montre la figure 1, en modifiant les pixels de l'image par le biais d'attaques contradictoires, GPT-4o La statue du lion à queue a été identifiée par erreur comme la Tour Eiffel à Paris ou Big Ben à Londres . Le contenu de ces cibles d’erreur peut être personnalisé à volonté, même au-delà des limites de sécurité de l’application du modèle.
                                                                                                                                                                              
Dans le scénario d'attaque par jailbreak, bien que Claude ait réussi à rejeter la demande malveillante sous forme de texte, lorsque l'utilisateur saisit une image supplémentaire sans rapport en couleur unie, le modèle génère de fausses nouvelles en fonction de la demande de l'utilisateur. Cela signifie que les grands modèles multimodaux comportent plus de risques et de défis que les grands modèles linguistiques.

En plus de ces deux exemples, les grands modèles multimodaux présentent également diverses menaces de sécurité ou risques sociaux tels que l'illusion, les préjugés et les fuites de confidentialité, qui affecteront sérieusement leur fiabilité et leur crédibilité dans les applications pratiques. Ces problèmes de vulnérabilité surviennent-ils par hasard ou sont-ils répandus ? Quelles sont les différences de crédibilité des différents grands modèles multimodaux, et d’où viennent-elles ?

Récemment, des chercheurs de l'Université Tsinghua, de l'Université Beihang, de l'Université Jiao Tong de Shanghai et de Ruilai Intelligence ont écrit conjointement un article d'une centaine de pages et publié une référence complète appelée MultiTrust, qui pour la première fois a évalué de manière exhaustive les modes multimodaux traditionnels de dimensions et perspectives multiples. La crédibilité du grand modèle démontre de multiples risques de sécurité potentiels et inspire le prochain développement de grands modèles multimodaux.
LUniversité Tsinghua prend linitiative de publier une évaluation multimodale MultiTrust : Quelle est la fiabilité de GPT-4 ?
  • Titre de l'article : Benchmarking Trustworthiness of Multimodal Large Language Models : A Comprehensive Study
  • Lien de l'article : https://arxiv.org/pdf/2406.07057
  • Page d'accueil du projet : https:// multi-trust.github.io/
  • Référentiel de code : https://github.com/thu-ml/MMTrustEval Dans son travail d'évaluation de modèles à grande échelle, MultiTrust a affiné cinq dimensions d'évaluation de la crédibilité : véracité, sécurité, robustesse, l'équité et la confidentialité. Une classification secondaire est effectuée et les tâches, indicateurs et ensembles de données sont construits de manière ciblée pour fournir une évaluation complète.

                                                                                                                                                                                  Les scénarios de tâches couvrent les tâches de discrimination et de génération, couvrant les tâches de texte pur et les tâches multimodales. Les ensembles de données correspondant aux tâches sont non seulement transformés et adaptés sur la base d'ensembles de données publiques de textes ou d'images, mais également des données plus complexes et plus difficiles sont construites par collecte manuelle ou synthèse algorithmique.

                                                                                                                                                                                                    Figure 5 Liste des tâches MultiTrust
 

LUniversité Tsinghua prend linitiative de publier une évaluation multimodale MultiTrust : Quelle est la fiabilité de GPT-4 ?

Différent de l'évaluation fiable des grands modèles de langage (LLM), ML Les fonctionnalités multimodales de LM apportent des scénarios de risque et possibilités. Afin de mieux mener une évaluation systématique, le benchmark MultiTrust part non seulement de la dimension d'évaluation comportementale traditionnelle, mais introduit également de manière innovante les deux perspectives d'évaluation du risque multimodal et de l'impact intermodal, couvrant de manière globale les nouveaux problèmes apportés par les nouvelles modalités. . nouveau défi.险 Figure 6 Le risque de risque multi-mode et d'impact inter-modulaire

Plus précisément, le risque multi-mode fait référence aux nouveaux risques apportés par la scène multi-mode, tels que les réponses incorrectes possibles lorsque le modèle traite le visuel des informations trompeuses, ainsi que des erreurs de jugement dans le raisonnement multimodal impliquant des questions de sécurité. Bien que le modèle puisse identifier correctement l'alcool sur la photo, certains modèles ne sont pas conscients du risque potentiel de le partager avec des médicaments à base de céphalosporines.
LUniversité Tsinghua prend linitiative de publier une évaluation multimodale MultiTrust : Quelle est la fiabilité de GPT-4 ?
涉 Figure 7 Les modèles de raisonnement impliquant des problèmes de sécurité sont mal jugés
Les effets transmodaux font référence à l'impact de l'ajout de nouveaux modes sur la crédibilité du mode d'origine, comme la saisie d'images non pertinentes. Cela peut changer le comportement fiable du réseau fédérateur du grand modèle de langage dans des scénarios de texte brut, conduisant à des risques de sécurité plus imprévisibles. Dans les attaques de jailbreak et les tâches de fuite de confidentialité contextuelle couramment utilisées pour l'évaluation de la crédibilité des grands modèles de langage, si le modèle reçoit une image qui n'a rien à voir avec le texte, le comportement de sécurité d'origine peut être détruit (Figure 2).
Analyse des résultats et principales conclusions
LUniversité Tsinghua prend linitiative de publier une évaluation multimodale MultiTrust : Quelle est la fiabilité de GPT-4 ?                                                                                                                                                    ‐ à
----- une mise à jour en temps réel de la liste de crédibilité (partie)

Les chercheurs maintenir une base de données multimodale régulièrement mise à jour. Les derniers modèles tels que GPT-4o et Claude3.5 ont été ajoutés à la liste de crédibilité des modèles. Dans l'ensemble, les modèles commerciaux fermés sont plus sûrs et plus fiables que les modèles open source traditionnels. Parmi eux, GPT-4 d'OpenAI et Claude d'Anthropic se classent au premier rang en termes de crédibilité, tandis que Microsoft Phi-3, qui a ajouté un alignement de sécurité, se classe au premier rang parmi les modèles open source, mais il existe encore un certain écart avec le modèle fermé.

Les modèles commerciaux tels que GPT-4, Claude et Gemini ont mis en œuvre de nombreuses technologies de renforcement pour la sécurité et la fiabilité, mais il existe encore certains risques en matière de sécurité et de fiabilité. Par exemple, ils présentent toujours une vulnérabilité aux attaques contradictoires, aux attaques de jailbreak multimodales, etc., ce qui interfère grandement avec l'expérience et la confiance des utilisateurs.
LUniversité Tsinghua prend linitiative de publier une évaluation multimodale MultiTrust : Quelle est la fiabilité de GPT-4 ?
                                                             
Bien que les scores de nombreux modèles open source sur les listes générales grand public soient équivalents à ou encore mieux que GPT-4. Lors des tests de niveau de confiance, ces modèles montraient toujours des faiblesses et des failles sous différents aspects. Par exemple, l'accent mis sur les capacités générales (telles que l'OCR) pendant la phase de formation fait de l'intégration de texte jailbreaké et d'informations sensibles dans la saisie d'images une source de risque plus menaçante.

Sur la base des résultats expérimentaux des effets multimodaux, l'auteur a découvert que la formation et l'inférence multimodales affaibliraient le mécanisme d'alignement sûr des grands modèles de langage. De nombreux grands modèles multimodaux utiliseront de grands modèles de langage alignés comme réseau fédérateur et seront peaufinés au cours du processus de formation multimodale. Les résultats montrent que ces modèles présentent encore d’importantes vulnérabilités de sécurité et des risques crédibles. Dans le même temps, dans plusieurs tâches d’évaluation de la fiabilité d’un texte pur, l’introduction d’images pendant le raisonnement aura également un impact et une interférence sur le comportement fiable du modèle.
                                 圖10中使用與影像學歷性與其通用能力有一定的相關性,但在不同的可信評估維度上模型表現也依然存在差異。目前常見的多模態大模型相關演算法,如GPT-4V輔助產生的微調資料集、針對幻覺的RLHF等,尚不足以全面增強模型的可信度。而現有的結論也表明,多模態大模型有著區別於大語言模型的獨特挑戰,需要創新且高效的演算法來進一步改進。

詳細結果和分析請參考論文。
 

未來方向
研究結果顯示提升多模態大模型的可信度需要研究人員的特別注意。透過借鑒大語言模型對齊的方案,多元化的訓練資料和場景,以及檢索增強生成(RAG)和憲法AI(Constitutional AI)等範式可以一定程度上幫助改進。但多模態大模型的可信賴提升絕不止於此,模態間對齊、視覺編碼器的穩健性等也是關鍵影響因素。此外,透過在動態環境中持續評估和最佳化,增強模型在實際應用中的表現,也是未來的重要方向。
 
伴隨MultiTrust基準的發布,研究團隊也公開了多模態大模型可信評估工具包MMTrustEval,其模型整合和評估模組化的特點為多模態大模型的可信度研究提供了重要工具。基於這項工作和工具包,團隊組織了與多模態大模型安全相關的資料和演算法競賽[1,2],推進大模型的可信研究。未來,隨著技術的不斷進步,多模態大模型將在更多領域展現其潛力,但其可信賴性的問題仍需持續關注和深入研究。
參考連結:
[1] CCDM2024多模態大語言模型紅隊安全挑戰賽http://116.11289824多模態大語言模型紅隊安全挑戰賽http://116.112.
[2] 第三屆琶洲演算法競賽--多模態大模型演算法安全加強技術https://iacc.pazhoulab-huangpu.com/contestdetail?id=668de7357ff47da8cc88c7,08cc88c70,00888c7,08cc

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Système de fusion, expliqué
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1664
14
Tutoriel PHP
1269
29
Tutoriel C#
1249
24
L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours Jul 17, 2024 am 01:56 AM

Il s'agit également d'une vidéo Tusheng, mais PaintsUndo a emprunté une voie différente. L'auteur de ControlNet, LvminZhang, a recommencé à vivre ! Cette fois, je vise le domaine de la peinture. Le nouveau projet PaintsUndo a reçu 1,4kstar (toujours en hausse folle) peu de temps après son lancement. Adresse du projet : https://github.com/lllyasviel/Paints-UNDO Grâce à ce projet, l'utilisateur saisit une image statique et PaintsUndo peut automatiquement vous aider à générer une vidéo de l'ensemble du processus de peinture, du brouillon de ligne au suivi du produit fini. . Pendant le processus de dessin, les changements de lignes sont étonnants. Le résultat vidéo final est très similaire à l’image originale : jetons un coup d’œil à un dessin complet.

En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. Jul 17, 2024 pm 10:02 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Jun 24, 2024 pm 03:04 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Dans le processus de développement de l'intelligence artificielle, le contrôle et le guidage des grands modèles de langage (LLM) ont toujours été l'un des principaux défis, visant à garantir que ces modèles sont à la fois puissant et sûr au service de la société humaine. Les premiers efforts se sont concentrés sur les méthodes d’apprentissage par renforcement par feedback humain (RL

Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Aug 01, 2024 pm 05:18 PM

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Aug 05, 2024 pm 03:32 PM

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. LLM n'est vraiment pas bon pour la prédiction de séries chronologiques. Il n'utilise même pas sa capacité de raisonnement. Jul 15, 2024 pm 03:59 PM

Les modèles linguistiques peuvent-ils vraiment être utilisés pour la prédiction de séries chronologiques ? Selon la loi des gros titres de Betteridge (tout titre d'actualité se terminant par un point d'interrogation peut recevoir une réponse « non »), la réponse devrait être non. Le fait semble être vrai : un LLM aussi puissant ne peut pas bien gérer les données de séries chronologiques. Les séries chronologiques, c'est-à-dire les séries chronologiques, comme leur nom l'indique, font référence à un ensemble de séquences de points de données disposées par ordre temporel. L'analyse des séries chronologiques est essentielle dans de nombreux domaines, notamment la prévision de la propagation des maladies, l'analyse du commerce de détail, la santé et la finance. Dans le domaine de l'analyse des séries chronologiques, de nombreux chercheurs ont récemment étudié comment utiliser les grands modèles linguistiques (LLM) pour classer, prédire et détecter les anomalies dans les séries chronologiques. Ces articles supposent que les modèles de langage capables de gérer les dépendances séquentielles dans le texte peuvent également se généraliser aux séries chronologiques.

Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Jul 17, 2024 am 02:46 AM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com. Introduction Ces dernières années, l'application de grands modèles de langage multimodaux (MLLM) dans divers domaines a connu un succès remarquable. Cependant, en tant que modèle de base pour de nombreuses tâches en aval, le MLLM actuel se compose du célèbre réseau Transformer, qui

See all articles