Logo des Repositoriums
  • English
  • Deutsch
Anmelden
Keine TU-ID? Klicken Sie hier für mehr Informationen.
  1. Startseite
  2. Publikationen
  3. Publikationen der Technischen Universität Darmstadt
  4. Zweitveröffentlichungen
  5. Attribute or Abstain: Large Language Models as Long Document Assistants
 
  • Details
2024
Zweitveröffentlichung
Konferenzveröffentlichung
Verlagsversion

Attribute or Abstain: Large Language Models as Long Document Assistants

File(s)
Download
Hauptpublikation
2024.emnlp-main.463.pdf
CC BY 4.0 International
Format: Adobe PDF
Size: 2.36 MB
TUDa URI
tuda/12904
URN
urn:nbn:de:tuda-tuprints-289216
DOI
10.26083/tuprints-00028921
Autor:innen
Buchmann, Jan ORCID 0000-0001-5347-8209
Liu, Xiao
Gurevych, Iryna ORCID 0000-0003-2187-7621
Kurzbeschreibung (Abstract)

LLMs can help humans working with long documents, but are known to hallucinate. Attribution can increase trust in LLM responses: The LLM provides evidence that supports its response, which enhances verifiability. Existing approaches to attribution have only been evaluated in RAG settings, where the initial retrieval confounds LLM performance. This is crucially different from the long document setting, where retrieval is not needed, but could help. Thus, a long document specific evaluation of attribution is missing. To fill this gap, we present LAB, a benchmark of 6 diverse long document tasks with attribution, and experiments with different approaches to attribution on 5 LLMs of different sizes. We find that citation, i.e. response generation and evidence extraction in one step, performs best for large and fine-tuned models, while additional retrieval can help for small, prompted models. We investigate whether the "Lost in the Middle" phenomenon exists for attribution, but do not find this. We also find that evidence quality can predict response quality on datasets with simple responses, but not so for complex responses, as models struggle with providing evidence for complex claims. We release code and data for further investigation.

Sprache
Englisch
Herausgeber:innen
Al-Onaizan, Yaser
Bansal, Mohit
Chen, Yun-Nung
Fachbereich/-gebiet
20 Fachbereich Informatik > Ubiquitäre Wissensverarbeitung
Zentrale Einrichtungen > hessian.AI - Hessisches Zentrum für Künstliche Intelligenz
DDC
000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik
Institution
Universitäts- und Landesbibliothek Darmstadt
Ort
Darmstadt
Veranstaltungstitel
The 2024 Conference on Empirical Methods in Natural Language Processing
Veranstaltungsort
Miami, Florida
Startdatum der Veranstaltung
12.11.2024
Enddatum der Veranstaltung
16.11.2024
Buchtitel
Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing
Startseite
8113
Endseite
8140
ISBN
979-8-89176-164-3
Verlag
ACL
Ort der Erstveröffentlichung
Kerrville, TX, USA
Publikationsjahr der Erstveröffentlichung
2024
Verlags-DOI
10.18653/v1/2024.emnlp-main.463
PPN
525243852
Zusätzliche Links (Organisation)
https://2024.emnlp.org/
Ergänzende Ressourcen (Forschungsdaten)
https://aclanthology.org/attachments/2024.emnlp-main.463.software.zip
https://aclanthology.org/attachments/2024.emnlp-main.463.data.zip

  • TUprints Leitlinien
  • Cookie-Einstellungen
  • Impressum
  • Datenschutzbestimmungen
  • Webseitenanalyse
Diese Webseite wird von der Universitäts- und Landesbibliothek Darmstadt (ULB) betrieben.