Date | Titre | Résumé |
2025-07-03 | Toward a Robust and Generalizable Metamaterial Foundation Model | Des chercheurs présentent le modèle MetaFO, un modèle de fondation basé sur un transformateur bayésien, pour l'innovation en métamatériaux, capable de prédictions probabilistes et de conception inverse non linéaire sans données spécifiques, ouvrant de nouvelles possibilités dans la conception de matériaux. |
2025-07-03 | System-performance and cost modeling of Large Language Model training and inference | Cet article propose une méthodologie de modélisation des performances-coûts pour l'entraînement et l'inférence des grands modèles de langage, intégrant des innovations récentes pour optimiser les systèmes de calcul et de communication, en vue d'améliorer le design des systèmes informatiques futurs et le co-développement matériel-logiciel. |
2025-07-03 | Continual Gradient Low-Rank Projection Fine-Tuning for LLMs | Les chercheurs proposent GORP, une nouvelle stratégie de formation qui combine des paramètres complets et de faible rang pour l'apprentissage continu des grands modèles linguistiques, améliorant ainsi l'efficacité et l'apprentissage sans oublier catastrophiquement. |
2025-07-03 | Clarifying Before Reasoning: A Coq Prover with Structural Context | Les chercheurs démontrent qu'en ajoutant un contexte sémantique structuré aux modèles de langage, la clarté des tâches est considérablement améliorée, ce qui augmente le succès des démonstrations dans le Coq jusqu'à 45,8%, surpassant les méthodes existantes. |
2025-07-03 | Transformers Don't Need LayerNorm at Inference Time: Scaling LayerNorm Removal to GPT-2 XL and the Implications for Mechanistic Interpretability | Les chercheurs démontrent que les couches de normalisation par couche (LN) peuvent être retirées des modèles GPT-2 avec une augmentation minime de la perte de validation, ce qui ouvre la voie à une meilleure interprétation mécaniste et à une compréhension approfondie des modèles de langage sans LN. |
2025-07-03 | Revisiting Active Learning under (Human) Label Variation | Cet article propose un cadre conceptuel pour intégrer la variation humaine des labels (HLV) dans l'apprentissage actif, en revoyant les hypothèses fondamentales sur la vérité des données annotées et en suggérant l'utilisation des grands modèles linguistiques comme annotateurs. |
2025-07-03 | Strategic Intelligence in Large Language Models: Evidence from evolutionary Game Theory | Les modèles de langage de grande taille (LLM) démontrent une intelligence stratégique dans des environnements compétitifs, comme révélé par des tournois évolutifs du Dilemme du Prisonnier Itéré, où ils montrent des stratégies distinctes influençant leur succès dans des contextes incertains. |
2025-07-03 | FlowSpec: Continuous Pipelined Speculative Decoding for Efficient Distributed LLM Inference | L'article présente FlowSpec, un cadre de décodage spéculatif basé sur un arbre qui améliore l'efficacité de l'inférence distribuée des grands modèles de langage à la périphérie du réseau, avec une accélération notable du processus par rapport aux méthodes existantes. |
2025-07-03 | VRAgent-R1: Boosting Video Recommendation with MLLM-based Agents via Reinforcement Learning | L'article présente VRAgent-R1, un nouveau paradigme qui utilise des agents pour améliorer la compréhension multimodale des recommandations vidéo, montrant une nette amélioration des performances par rapport aux simulations classiques. |
2025-07-03 | AIGI-Holmes: Towards Explainable and Generalizable AI-Generated Image Detection via Multimodal Large Language Models | Des chercheurs ont développé le jeu de données Holmes-Set et le modèle AIGI-Holmes pour améliorer la détection des images générées par l'IA, en offrant des explications vérifiables par l'homme, tout en optimisant la généralisation des modèles à travers une approche d'annotation novatrice et un cadre d'entraînement en trois étapes. |
2025-07-03 | On the Convergence of Large Language Model Optimizer for Black-Box Network Management | Les chercheurs ont établi une base théorique pour le cadre d'optimisation des grands modèles de langage (LLMO) dans la gestion de réseaux complexes, en prouvant sa convergence et en validant ses performances à travers des simulations numériques. |
2025-07-03 | Bourbaki: Self-Generated and Goal-Conditioned MDPs for Theorem Proving | Les chercheurs ont introduit les sG-MDPs, un cadre novateur où les agents génèrent leurs sous-objectifs pour améliorer le raisonnement logique des LLMs dans la preuve de théorèmes automatisée, obtenant des résultats de pointe avec Bourbaki (7B) sur PutnamBench. |
2025-07-03 | Early Signs of Steganographic Capabilities in Frontier LLMs | Les chercheurs analysent les capacités naissantes de stéganographie des grands modèles linguistiques, soulignant qu'ils peuvent encoder des messages ou des raisonnements dans leurs sorties sous certaines conditions, bien que ces capacités ne soient pour l'instant pas suffisantes pour échapper à une surveillance bien conçue. |
2025-07-03 | Fast and Simplex: 2-Simplicial Attention in Triton | L'article explore l'efficacité des Transformateurs 2-simpliciaux, qui augmentent l'efficacité des tokens et surpassent les modèles traditionnels de dot-product sur des tâches de mathématiques, de codage et de raisonnement, en modifiant les lois de l'échelle pour le savoir et le raisonnement. |
2025-07-03 | DeSTA2.5-Audio: Toward General-Purpose Large Audio Language Model with Self-Generated Cross-Modal Alignment | Les chercheurs présentent DeSTA2.5-Audio, un modèle génératif audio-langage permettant une perception auditive robuste sans ajustement spécifique des instructions, grâce à une stratégie d'alignement croisé auto-générée préservant les capacités linguistiques du modèle source, et démontrent sa performance remarquable sur divers benchmarks audio-langage. |
2025-07-03 | Self-Correction Bench: Revealing and Addressing the Self-Correction Blind Spot in LLMs | Les chercheurs identifient un "angle mort" de l'auto-correction chez les modèles de langage, où ils échouent à corriger leurs propres erreurs, et proposent le Self-Correction Bench pour étudier ce phénomène, révélant que l'ajout de "Wait" active la capacité et réduit les angles morts de 89,3 %. |
2025-07-03 | Multimodal Mathematical Reasoning with Diverse Solving Perspective | Les chercheurs présentent MathV-DP, un ensemble de données visant à enrichir le raisonnement des modèles de langage multimodal en mathématiques, et Qwen-VL-DP, un modèle optimisé qui excelle en précision et diversité générative grâce à sa capacité à intégrer des perspectives de solution variées. |
2025-07-03 | SynapseRoute: An Auto-Route Switching Framework on Dual-State Large Language Model | Les chercheurs proposent SynapseRoute, un cadre de routage dynamique qui optimise la précision et le coût en assignant intelligemment des questions médicales aux modes de raisonnement adaptés, démontrant une amélioration de l'efficacité et une réduction du temps d'inférence sans sacrifier l'exactitude. |
2025-07-03 | ExPO: Unlocking Hard Reasoning with Self-Explanation-Guided Reinforcement Learning | L'article présente "Self-Explanation Policy Optimization (ExPO)", une nouvelle méthode qui génère des échantillons de raisonnement plus efficaces pour les modèles linguistiques en utilisant des réponses vérifiées, améliorant leur performance sur des tâches complexes par rapport aux démonstrations d'experts. |
2025-07-03 | StepHint: Multi-level Stepwise Hints Enhance Reinforcement Learning to Reason | L'article propose un nouvel algorithme, StepHint, pour améliorer les capacités de raisonnement des grands modèles de langage en s'appuyant sur des indices progressifs pour surmonter les problèmes d'efficacité de formation et de stagnation de l'exploration, surpassant ainsi les méthodes existantes sur plusieurs benchmarks mathématiques. |
2025-07-03 | MOTIF: Modular Thinking via Reinforcement Fine-tuning in LLMs | Les chercheurs ont développé MOTIF, une méthode d'entraînement en renforcement qui permet aux modèles de langage de raisonner par plusieurs cycles, améliorant l'efficacité contextuelle et la précision des résultats avec une utilisation minimale d'échantillons. |
2025-07-03 | Bootstrapping Grounded Chain-of-Thought in Multimodal LLMs for Data-Efficient Model Adaptation | Les modèles de langage multimodal (MLLM) peinent à s'adapter aux tâches visuelles spécialisées sans grands ensembles de données, mais l'approche Grounded Chain-of-Thought (GCoT) injecte des informations de base pour renforcer l'adaptation en situation de données limitées. |
2025-07-02 | La RoSA: Enhancing LLM Efficiency via Layerwise Rotated Sparse Activation | LaRoSA est une nouvelle méthode d'activation parcimonieuse qui optimise l'efficacité des modèles de langage large en utilisant des rotations orthogonales par couche, permettant une accélération fiable du temps d'inférence sans nécessiter de formation supplémentaire ni de taille de prune empirique. |
2025-07-02 | Reasoner for Real-World Event Detection: Scaling Reinforcement Learning via Adaptive Perplexity-Aware Sampling Strategy | Les chercheurs présentent le cadre APARL, basé sur le renforcement de la perplexité adaptative, qui améliore la détection d'événements anormaux dans les dialogues de service client grâce à une architecture d'apprentissage dynamique et obtient des résultats supérieurs en adaptabilité. |
2025-07-02 | SpeechAccentLLM: A Unified Framework for Foreign Accent Conversion and Text to Speech | Cet article explore l'intégration des techniques des grands modèles de langage dans la conversion d'accent étranger en parole, introduisant le modèle novateur SpeechCodeVAE pour une meilleure fidélité et cohérence, et proposant SpeechRestorer pour affiner la sortie générée en améliorant la continuité prosodique. |
2025-07-02 | Activation Reward Models for Few-Shot Model Alignment | Les chercheurs présentent une méthode innovante appelée Activation Reward Models pour aligner les modèles de langage génératifs sur les préférences humaines, surpassant les approches traditionnelles grâce à l'utilisation de signaux de récompense bien alignés avec une supervision minimale. Cette méthode démontre son efficacité en évitant les comportements de détournement de récompense, crucial pour les applications sensibles à la sécurité, et établit une nouvelle référence de performance dans ce domaine. |
2025-07-02 | RALLY: Role-Adaptive LLM-Driven Yoked Navigation for Agentic UAV Swarms | Un nouvel algorithme, RALLY, améliore la navigation en essaim de drones en combinant modèles de langage et apprentissage par renforcement multi-agent, offrant une meilleure couverture de tâche et adaptabilité des rôles. |
2025-07-02 | Challenges & Opportunities with LLM-Assisted Visualization Retargeting | L'article évalue comment les modèles de langage avancés peuvent automatiser l'adaptation de visualisations de données complexes, en comparant deux méthodes et en identifiant leurs limites, ce qui pourrait révolutionner la simplification du processus de retargeting des données. |
2025-07-02 | A Large Language Model for Chemistry and Retrosynthesis Predictions | Des chercheurs ont développé ECNU-ChemGPT, un modèle de langage spécialisé en chimie, qui surpasse les modèles généralistes grâce à une adaptation fine aux données du domaine et une planification rétrosynthétique précise, atteignant 68,3% de précision sur le jeu de données USPTO_50K et reconstruisant avec succès 13 voies expérimentales complètes pour des molécules pharmaceutiques. |
2025-07-02 | Agent-as-Tool: A Study on the Hierarchical Decision Making with Reinforcement Learning | Des chercheurs ont développé un cadre hiérarchique, Agent-as-tool, qui sépare les processus d'appel d'outil et de raisonnement, et surpassent d'autres modèles en termes de correspondance exacte, améliorant ainsi l'efficacité des grands modèles de langage. |
2025-07-02 | AVC-DPO: Aligned Video Captioning via Direct Preference Optimization | Un nouveau cadre de post-formation, AVC-DPO, améliore la qualité des légendes vidéo générées par les modèles de langue multimodaux en alignant les préférences humaines, atteignant une performance remarquable lors de la LOVE@CVPR'25 Workshop Track 1A. |
2025-07-02 | Efficient Out-of-Scope Detection in Dialogue Systems via Uncertainty-Driven LLM Routing | Les chercheurs ont conçu un nouveau cadre modulaire qui intègre la modélisation de l'incertitude avec des modèles de langage avancés pour améliorer la détection des intentions hors-sujet dans les systèmes de dialogue, offrant une efficacité et une précision accrues. |
2025-07-02 | Is External Information Useful for Stance Detection with LLMs? | Cet article révèle que l'intégration d'informations externes, telles que des extraits de Wikipédia, réduit souvent la performance des modèles de langage de grande taille pour la détection de position, contrairement aux conclusions antérieures pour les systèmes basés sur BERT. |
2025-07-02 | Emotionally Intelligent Task-oriented Dialogue Systems: Architecture, Representation, and Optimisation | Les chercheurs ont développé LUSTER, un système basé sur des grands modèles de langage (LLM) intégrant l'apprentissage par renforcement pour optimiser les dialogues orientés vers des tâches, tout en tenant compte des sentiments utilisateurs et de la réussite des tâches à long terme, montrant ainsi des avancées dans la résilience et l'intelligence émotionnelle des agents conversationnels. |
2025-07-02 | Chart Question Answering from Real-World Analytical Narratives | Les chercheurs ont créé un nouveau jeu de données pour répondre aux questions à partir de graphiques, basé sur des carnets de visualisation, mettant en lumière les défis de l'intelligence artificielle face à des scénarios d'analyse réels, auquel GPT-4.1 a obtenu 69,3 % de précision. |
2025-07-02 | DaiFu: In-Situ Crash Recovery for Deep Learning Systems | Les chercheurs ont développé DaiFu, un cadre de récupération in situ pour systèmes d'apprentissage profond, permettant des mises à jour dynamiques instantanées après un crash, réduisant ainsi le temps de restauration jusqu'à 1372 fois par rapport aux solutions actuelles, avec un impact négligeable sur les performances. |
2025-07-02 | SAILViT: Towards Robust and Generalizable Visual Backbones for MLLMs via Gradual Feature Refinement | SAILViT, un Vision Transformer amélioré par apprentissage progressif, surmonte les limitations de l'interaction multimodale des MLLMs, offrant robustesse et performance accrue dans les tâches en aval. |
2025-07-02 | AsyncFlow: An Asynchronous Streaming RL Framework for Efficient LLM Post-Training | AsyncFlow, un cadre de streaming RL asynchrone, améliore l'efficacité du post-entraînement des grands modèles de langage en résolvant les problèmes liés aux goulots d'étranglement de l'évolutivité et à l'inactivité computationnelle tout en étant adaptable et modulable. |
2025-07-02 | Blending Supervised and Reinforcement Fine-Tuning with Prefix Sampling | Cet article propose une approche hybride, Prefix-RFT, qui combine les forces de l'apprentissage supervisé et du renforcement pour améliorer la formation des modèles de langage, surpassant les méthodes traditionnelles tout en étant facilement intégrable aux frameworks open-source existants. |
2025-07-02 | Token Communication in the Era of Large Models: An Information Bottleneck-Based Approach | Les chercheurs introduisent UniToCom, un paradigme de communication unifié utilisant les tokens pour le traitement et la transmission, avec un principe de "bottleneck" pour améliorer l'efficacité et réduire la complexité, en optimisant la compréhension multimodale via un modèle de langage large. |
2025-07-02 | Tuning without Peeking: Provable Privacy and Generalization Bounds for LLM Post-Training | L'article présente BBoxER, une méthode d'optimisation en boîte noire évolutive pour améliorer la robustesse et la confidentialité des grands modèles linguistiques, en apportant des garanties théoriques de généralisation et en offrant une alternative aux méthodes traditionnelles basées sur les gradients. |
2025-07-02 | Rethinking Discrete Tokens: Treating Them as Conditions for Continuous Autoregressive Image Synthesis | Le modèle DisCon propose une approche novatrice en utilise les tokens discrets comme signaux conditionnels pour prédire des représentations continues, réduisant ainsi la perte d'information et surpassant les méthodes autoregressives existantes en termes de fidélité d'image. |
2025-07-02 | MuRating: A High Quality Data Selecting Approach to Multilingual Large Language Model Pretraining | Les chercheurs présentent MuRating, un cadre évolutif qui transfère les signaux de qualité des données en anglais vers 17 langues cibles, améliorant ainsi la performance des modèles de langage multilingues en sélectionnant des contenus équilibrés pour préentraîner un modèle LLaMA de 1,2 milliard de paramètres, surpassant les méthodes actuelles sur des évaluations multilingues et des tâches intensives en connaissances. |
2025-07-02 | HCNQA: Enhancing 3D VQA with Hierarchical Concentration Narrowing Supervision | Les chercheurs proposent HCNQA, un modèle de question-réponse visuelle 3D, utilisant une méthode de supervision hiérarchique pour améliorer le cheminement de raisonnement et éviter les raccourcis superficiels, démontrant des résultats expérimentaux prometteurs. |
2025-07-02 | LoRA Fine-Tuning Without GPUs: A CPU-Efficient Meta-Generation Framework for LLMs | Les chercheurs proposent une nouvelle méthode de fine-tuning pour les modèles de langage sur des CPUs standard, permettant des mises à jour efficaces en utilisant des adaptateurs pré-entraînés, offrant une alternative accessible aux utilisateurs avec des ressources informatiques limitées. |
2025-07-02 | APRMCTS: Improving LLM-based Automated Program Repair with Iterative Tree Search | APRMCTS utilise la recherche itérative pour améliorer la réparation automatisée de programmes basée sur des modèles de langage, augmentant l'efficacité de la recherche de correctifs et surpassant les méthodes existantes en corrigeant plus de bugs à moindre coût. |
2025-07-02 | Low-Perplexity LLM-Generated Sequences and Where To Find Them | Une étude explore comment les modèles de langage géant (LLM) utilisent leurs données d'entraînement, en analysant des séquences à faible perplexité pour tracer leur origine, révélant que de nombreuses séquences ne peuvent être retracées, mais que celles qui le peuvent montrent des tendances sur la mémoire verbatim, contribuant à mieux comprendre l'impact des données d'entraînement sur le comportement des LLMs. |
2025-07-02 | Eka-Eval : A Comprehensive Evaluation Framework for Large Language Models in Indian Languages | Les chercheurs ont développé EKA-EVAL, un cadre d'évaluation unifié pour les modèles de langage en Inde, proposant plus de 35 benchmarks, dont 10 spécifiques à l'Inde, améliorant ainsi l'évaluation multilingue et réduisant les obstacles au benchmarking multilingue. |
2025-07-02 | Improving GANs by leveraging the quantum noise from real hardware | Cet article explore l'intégration de prior quantique dans les GANs, réduisant significativement le FID et exploitant les imperfections des dispositifs quantiques pour améliorer la modélisation générative, sans modifier les architectures réseau existantes. |
2025-07-02 | MiCoTA: Bridging the Learnability Gap with Intermediate CoT and Teacher Assistants | Les chercheurs présentent MiCoTA, un cadre qui améliore la capacité de raisonnement des petits modèles de langage en utilisant des modèles de taille intermédiaire comme assistants pédagogiques, permettant ainsi aux petits modèles de surmonter leurs limites de performance sur des tâches complexes. |
2025-07-02 | High-Layer Attention Pruning with Rescaling | Les chercheurs ont développé un nouvel algorithme d'élagage pour les modèles de langue géants, ciblant stratégiquement les têtes d'attention dans les couches supérieures pour compenser des effets néfastes sur les représentations de tokens, surpassant les méthodes existantes en performances, surtout dans les tâches de génération. |
2025-07-02 | AI4Research: A Survey of Artificial Intelligence for Scientific Research | Cet article propose une enquête exhaustive sur l'IA appliquée à la recherche scientifique, introduisant une taxonomie systématique des tâches principales, identifiant des lacunes de recherche et compilant des ressources pratiques pour impulser des avancées innovantes. |
2025-07-02 | Reasoning to Edit: Hypothetical Instruction-Based Image Editing with Visual Reasoning | L'article présente Reason50K, un ensemble de données pour la formation et l'évaluation de l'édition d'image basée sur des instructions hypothétiques complexes, et ReasonBrain, un cadre innovant aidant à inférer ces instructions grâce à des modèles de langage multimodal et un module d'extraction de détails visuels et textuels. |
2025-07-02 | Gradient-Adaptive Policy Optimization: Towards Multi-Objective Alignment of Large Language Models | Des chercheurs ont développé le GAPO, une technique de réglage fin qui optimise simultanément divers objectifs de préférences humaines, pour aligner les grands modèles de langage, en utilisant une approche de descente de gradient adaptative et prouvée empiriquement supérieure sur le modèle Mistral-7B. |
2025-07-02 | The Thin Line Between Comprehension and Persuasion in LLMs | Cet article explore la capacité des grands modèles de langage à engager des débats convaincants, tout en révélant leurs limites dans la compréhension profonde des structures dialogueuses et du contexte pragmatique. |
2025-07-02 | Kwai Keye-VL Technical Report | Les chercheurs introduisent Kwai Keye-VL, un modèle de base multimodal de 8 milliards de paramètres optimisé pour comprendre les vidéos courtes remplies d'informations, en surpassant les performances actuelles grâce à un vaste ensemble de données et une nouvelle méthodologie d'apprentissage. |
2025-07-02 | Large Language Models for Crash Detection in Video: A Survey of Methods, Datasets, and Challenges | Cet article examine les méthodes récentes utilisant des modèles de grands langages pour détecter les accidents à partir de flux vidéo, proposant une taxonomie des stratégies de fusion, une analyse des architectures de modèles, et soulevant des défis et opportunités futurs dans ce domaine en croissance. |
2025-07-02 | Reasoning on a Budget: A Survey of Adaptive and Controllable Test-Time Compute in LLMs | Cet article explore des stratégies pour améliorer l'efficacité du calcul des modèles de langage lors du raisonnement, en introduisant une taxonomie binaire pour distinguer les méthodes à budget fixe et celles adaptatives, tout en évaluant les compromis entre performance et usage de tokens. |
2025-07-02 | Measuring Scientific Capabilities of Language Models with a Systems Biology Dry Lab | Les chercheurs ont créé SciGym, un benchmark qui évalue les capacités des modèles de langage (LLMs) à concevoir et analyser des expériences scientifiques dans des tâches de découverte ouvertes, en simulant des expériences en laboratoire sec pour contourner les coûts élevés des labos humides en biologie. |
2025-07-02 | The Future is Agentic: Definitions, Perspectives, and Open Challenges of Multi-Agent Recommender Systems | Cet article explore comment les modèles de langage évoluent en agents capables de planification et collaboration, transformant ainsi les systèmes de recommandation ; il propose un cadre unifié pour modéliser ces agents et aborde les défis associés, tout en invitant la communauté à développer des outils pour cette nouvelle autonomie. |
2025-07-02 | What Neuroscience Can Teach AI About Learning in Continuously Changing Environments | Cet article explore comment l'IA pourrait s'inspirer des capacités d'apprentissage adaptatif observées chez les animaux pour améliorer l'apprentissage en contexte et en continu, en intégrant des perspectives de neurosciences et d'intelligence artificielle dans le domaine émergent de la NeuroAI. |
2025-07-02 | When LLMs Disagree: Diagnosing Relevance Filtering Bias and Retrieval Divergence in SDG Search | Les modèles de langage tels que LLaMA et Qwen montrent des désaccords systématiques dans l'étiquetage de la pertinence des documents, ce qui peut influencer la récupération d'informations, en particulier sur les abstracts liés aux Objectifs de Développement Durable. Ces désaccords, prévisibles et non aléatoires, peuvent être exploités pour affiner l'évaluation des recherches thématiques ou à enjeux politiques. |
2025-07-02 | Reasoning or Not? A Comprehensive Evaluation of Reasoning LLMs for Dialogue Summarization | Une étude évalue l'efficacité des modèles de raisonnement étape par étape par rapport aux modèles non-raisonnants pour la synthèse des dialogues, révélant que le raisonnement explicite ne garantit pas des résumés plus concis ni plus précis, soulignant ainsi la nécessité de stratégies de modélisation ciblées. |
2025-07-02 | Data Diversification Methods In Alignment Enhance Math Performance In LLMs | Des chercheurs explorent comment la diversification des données de préférence dans l'optimisation des modèles linguistiques peut améliorer leur raisonnement mathématique, la méthode Diversified-ThinkSolve montrant des gains notables avec un coût informatique minimal. |
2025-07-01 | Does Math Reasoning Improve General LLM Capabilities? Understanding Transferability of LLM Reasoning | Les chercheurs ont découvert que les modèles de langage qui excellent en mathématiques ne parviennent souvent pas à transférer leurs compétences à d'autres domaines, avec un apprentissage par renforcement montrant une meilleure généralisation que le réglage supervisé, soulignant la nécessité de revoir les méthodes de formation postérieure. |
2025-07-01 | Read the Docs Before Rewriting: Equip Rewriter with Domain Knowledge via Continual Pre-training | Les chercheurs introduisent le système de réécriture R\&R, qui optimise les performances des modèles de question-réponse basés sur RAG dans les domaines spécialisés, en s'appuyant sur un pré-entraînement continu avec des documents professionnels, améliorant ainsi le lien entre requêtes et documents. |
2025-07-01 | Quantize-Sample-and-Verify: LLM Acceleration via Adaptive Edge-Cloud Speculative Decoding | Les chercheurs présentent une stratégie quantification-échantillonnage (Q-S) pour améliorer l'efficacité du décodage spéculatif entre périphériques de bord et le cloud, optimisant le débit des tokens en ajustant dynamiquement la précision de quantification selon l'incertitude sémantique et les conditions de canal. |
2025-07-01 | GANs Secretly Perform Approximate Bayesian Model Selection | Les chercheurs présentent ici une nouvelle interprétation des GANs en tant que modèles génératifs probabilistes, proposant des stratégies d'optimisation et de régularisation basées sur le principe du rasoir d'Occam pour améliorer la performance et la généralisation de ces modèles. |
2025-07-01 | Cognitive Load-Aware Inference: A Neuro-Symbolic Framework for Optimizing the Token Economy of Large Language Models | Cet article présente le cadre de référence CLAI, inspiré de la théorie de la charge cognitive, pour optimiser l'inférence des grands modèles de langage, réduisant ainsi la consommation de ressources jusqu'à 45% sans compromettre la précision. |