#workshop8

2024-02-27

@patrick_sahle stellt am Ende fest: Die letzten Jahrzehnte haben wir in den DH versucht strukturierte Daten her-/bereitzustellen, um sie dann abzufragen. Vlt brauchen wir das mit LLMs gar nicht mehr, sondern können endlich direkt unsere Fragen an das Material stellen?

#workshop8 #dhd2024

2024-02-27

Am Ende wird es dann doch nochmal grundsätzlich hier #dhd2024 #workshop8

2024-02-27

Interessanter Aspekt aus dem Publikum: LLMs als Zugangsweg zur Edition - man kann Fragen an die Edition stellen. #dhd2024 #workshop8

2024-02-27

@patrick_sahle: "Wir haben tausende Editionen, die wir gerne in TEI-XML hätten. Die sind ganz unterschiedlich. Algorithmisch ist das nicht zu lösen, mit den LLMs gibt es hier vlt einen Weg." #workshop8 #dhd2024

2024-02-27

Frage wird gestellt, was kann GPT & Co. was Python-Skripte & Co. nicht hinbekämen ... #dhd2024 #workshop8

2024-02-27

Diskussion: Wo befinden wir uns grade auf der Hypekurve? @andreaskuczera vermutet wir wären schon über den Gipfel. @chpollin widerspricht: Wir befinden uns noch auf dem Anstieg - da kommt noch einiges. #workshop8 #dhd2024

2024-02-27

In der Abschlussdiskussion wird doch nochmal die Frage nach dem Ressourcenverbrauch von @u_henny aufgeworfen #greeningDH

#workshop8 #dhd2024

2024-02-27
Reflexiv 2: Fokusverschiebungen

Neues Tool für alte Aufgaben?
Was ist unser “Standardtool”?
Neue Zielstellungen?
Veränderte Epistemologie
2024-02-27
2024-02-27

Der sehr interessante (und kurzweilige) Vortrag bzw. das Projekt von Nina Claudia Rastinger machte am Ende eine sehr vielversprechende Perspektive auf: Aus Text strukturierte Daten zu gewinnen. In diesem Fall hat das sehr gut geklappt! #dhd2024 #workshop8

2024-02-27

Custom-GPT konnten hier in 2-3 Projekten schon ganz gut genutzt werden #dhd2024 #workshop8

2024-02-27

Ein Fazit macht hier die Runde: Bei Übersetzungen und Zusammenfassungen ist GPT gut ... - so auch die Erkenntnis aus Bullinger Digital #dhd2024 #workshop8

2024-02-27

Jetzt im #workshop8: Jacob Möhrke, Sandra Balck, Anna Ananieva: "Zum Einsatz von GPT-4 für NER: Ein Experiment anhand eines historischen Reisetextes" #dhd2024

2024-02-27

Diskutiert wird über die "temperature": Vorschlag von @andreaskuczera: Niedrige temperatures für einfache Tasks, hohe für schwierige ... @chpollin ergänzt, das man auch Kontext verbesssert, wenn man schon auf eine (basale) Annotation zurückgreift für den nächsten Task ... #dhd2024 #workshop8

2024-02-27

Das Team um @andreaskuczera und den Regesta Imperii (RI) probiert gerade aus, dass das (lokale) LLM auf eine lokale Datenquelle (Register in neo4j) zugreifen kann ... #dhd2024 #workshop8

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst