#TruthfulQA
Explore tagged Tumblr posts
Quote
Despite their impressive capabilities, large language models (LLMs) are prone to hallucinations, i.e., generating content that deviates from facts seen during pretraining. We propose a simple decoding strategy for reducing hallucinations with pretrained LLMs that does not require conditioning on retrieved external knowledge nor additional fine-tuning. Our approach obtains the next-token distribution by contrasting the differences in logits obtained from projecting the later layers versus earlier layers to the vocabulary space, exploiting the fact that factual knowledge in an LLMs has generally been shown to be localized to particular transformer layers. We find that this Decoding by Contrasting Layers (DoLa) approach is able to better surface factual knowledge and reduce the generation of incorrect facts. DoLa consistently improves the truthfulness across multiple choices tasks and open-ended generation tasks, for example improving the performance of LLaMA family models on TruthfulQA by 12-17% absolute points, demonstrating its potential in making LLMs reliably generate truthful facts.
[2309.03883] DoLa: Decoding by Contrasting Layers Improves Factuality in Large Language Models
0 notes
Text
إلى أي مدى الذكاء الاصطناعي جي بي تي 3 صادقٌ في إجاباته؟
إلى أي مدى الذكاء الاصطناعي جي بي تي 3 صادقٌ في إجاباته؟
مساء الذكاء الاصطناعي، تناولنا في مجتمع رديف الآونة الأخيرة وتفحصنا عن كثب عدة أدوات للكتابة بالاستعانة بالذكاء الاصطناعي، وهذه لمحة عن الجلسة: تناولنا في الحصة مراجعة للأدوات التي تستخدم الذكاء الاصطناعي للكتابة – اشترك في رديف الآن. لكي لا يفوتك شيء من حصصنا. اشترك اليوم في رديف. واليوم سنتحدث بعون الله عن ورقة بحثية علمية تتفحص مدى صدق هذه النماذج المولِّدة للنصوص. مقياس TruthfulQA لمعرفة…
View On WordPress
#GPT-3#GPT-Neo/GPT-J#open ai#openai#T5-based model#TruthfulQA#فلسفة الذكاء الاصطناعي#فهد العييري#موقع رديف#مجتمع رديف#أدوات الكتابة بالذكاء الاصطناعي#أداة كاتب للكتابة بالذكاء الاصطناعي#الذكاء الاصطناعي#جي بي تي 3#جي بي تي ثري
0 notes