Vier Papiere auf der ACL
BamNLP pr?sentiert n?chste Woche vier Beitr?ge auf der ACL-Konferenz in Bangkok, Thailand.
Wir haben untersucht, wie sich die Beschreibung wissenschaftlicher Erkenntnisse ver?ndert, wenn über sie in Nachrichten oder sozialen Medien berichtet wird. Werden Korrelationen als kausale Zusammenh?nge dargestellt? Wird die Gewissheit des Ergebnisses mit h?herem Vertrauen berichtet? Ver?ndert sich die Ergebnisberichterstattung in Richtung Sensationslust, und wird übergeneralisiert berichtet?
Modelle, die lernen, Hassrede automatisch zu erkennen, stützen sich auf die Erw?hnung bestimmter Zielgruppen. So kann ein Modell beispielsweise vorhersagen, dass ein Beitrag Hassrede enth?lt, weil in dem Beitrag eine bestimmte Religion erw?hnt wird. Wird die F?higkeit des Modells, sich auf solche Zielgruppen zu stützen, abgeschafft, kann dies jedoch zu einer geringeren Leistung des Modells führen, da das Vorhandensein einer Zielgruppe ein entscheidendes Element von Hassrede ist. In dieser Arbeit testen wir, ob die Korrektur für eine Gruppe von Zielen (z. B. alle Religionen, alle Geschlechter) die Verallgemeinerbarkeit des Modells verbessert.
Rezensionen erw?hnen oft Entit?ten oder Aspekte, die bewertet werden, aber nicht jede Bewertung in einem Text ist relevant für ein globales Urteil auf Textebene. Dieser Beitrag untersucht die Beziehung zwischen lokalen und globalen Stimmungszuweisungen.
Amelie Wuehrl, Lynn Greschner, Yarik Menchaca Resendiz, und Roman Klinger. IMS_medicALY bei #SMM4H 2024: Detecting impacts of outdoor spaces on social anxiety with data augmented ensembling. In The 9th Social Media Mining for Health Research and Applications Workshop and Shared Tasks (#SMM4H 2024)--Large Language Models and Generalizability for Social Media NLP at ACL 2024, Bangkok, Thailand, 2024.
Dieses Papier ist ein Beitrag zu einem Shared Task. Wir testen, ob Modelle, die soziale Angst messen, durch künstliche Daten und dom?nenspezifische Modelle verbessert werden k?nnen.