L'intelligence artificielle générative (IA) excelle dans la création de réponses textuelles basées sur de grands modèles de langage (LLM), où l'IA est entraînée sur un grand nombre de points de données. La bonne nouvelle est que le texte généré est souvent facile à lire et fournit des réponses détaillées qui sont largement applicables aux questions posées par le logiciel, habituellement appelées invites.
La mauvaise nouvelle est que les informations utilisées pour générer la réponse sont limitées aux informations utilisées pour entraîner l'IA, souvent un LLM généralisé. Les données du LLM peuvent être périmées depuis des semaines, des mois ou des années et, dans un chatbot d'IA d'entreprise, elles peuvent ne pas prendre en compte des informations spécifiques aux produits ou services de l'entreprise. Cela peut conduire à des réponses incorrectes qui érodent la confiance en la technologie de certains clients et collaborateurs."
https://www.oracle.com/fr/artificial-intelligence/generative-ai/retrieval-augmented-generation-rag/
"les biais présents dans les algorithmes soulèvent des questions éthiques profondes. Une approche décentralisée, comme l’apprentissage fédéré, pourrait offrir une solution pour garantir des modèles plus inclusifs et respectueux de la vie privée."
https://www.wedemain.fr/respirer/vers-une-ia-plus-juste-et-respectueuse-lapprentissage-federe-pour-lutter-contre-les-biais/?utm_source=pocket-newtab-fr-fr