Einträge von Jörg Lehmann

Offenheit, Effizienz und geschlossene Systeme

Das Konzept der Datenräume, das die Europäische Kommission verfolgt, ist nicht nur ein technisches; es impliziert auch eine politische Verfasstheit. Datenräume wie GAIA-X benötigen keine zentralisierte Verwaltung. Der Betrieb eines solchen Datenraumes kann im Rahmen einer Föderation erfolgen, die die Mittel zur Kontrolle der Datenintegrität und der Datenvertrauenswürdigkeit herstellt. Der Verbund, der den Datenraum betreibt, […]

Offenheit und ihre Schattierungen

Offenheit, dieser Leuchtturm des 20. Jahrhunderts, wurde realisiert durch offene Schnittstellen (APIs). Im Falle von Galerien, Bibliotheken, Archiven und Museen (GLAMs) war es das Open Archives Initiative Protocol for Metadata Harvesting, kurz OAI-PMH. Die Idee war damals, eine Schnittstelle bereitzustellen, die Metadaten in interoperablen Formaten bereitstellt und so den Austausch zwischen verschiedenen Institutionen ermöglicht. Darüber […]

Orientierung in stürmischen Zeiten

Kulturerbe-Institutionen wie Galerien, Bibliotheken, Archive und Museen (GLAMs) befinden sich aktuell in einer schwierigen Situation: Generative KI-Modelle haben die Bedeutung des Begriffs „Offenheit“ fundamental verändert. Die offene Bereitstellung des digitalen Kulturerbes markierte bis vor kurzem ein absolut gesetztes Ideal, ebenso wie der Schutz geistigen Eigentums (intellectual property rights, IPR). Zwischen diesem Gegensatzpaar gibt es eine […]

Large Language Models und ihre WEIRDen Konsequenzen

In seinem Buch „The Weirdest People in the World“ („Die seltsamsten Menschen der Welt“) widmet sich der Evolutionspsychologe Joseph Henrich einer besonderen Spezies, die er „WEIRD people“ nennt. Dieses Wortspiel lässt sich insofern auflösen, als WEIRD für „white, educated, industrialised, rich, democratic“ steht. Henrich fragt sich hier, wie es dazu kommen konnte, dass ein kleiner […]

Hungrige Magie

„Any sufficiently advanced technology is indistinguishable from magic“, wußte schon Arthur C. Clarke, und es gehört zum Zauber neuer Technologien, dass ihre Kehrseiten systematisch beschwiegen werden. So ist es auch mit dem Energieverbrauch von großen Sprachmodellen (LLMs): Wie beim Schnitzel, das auf dem Teller der Verbraucher:innen landet und den Zusammenhang zu den Realitäten der Massentierhaltung […]

Den Kuckuck füttern

Large Language Models (LLMs) kombinieren Wörter, die im Trainingsdatensatz häufig in ähnlichen Zusammenhängen auftauchen; auf dieser Grundlage sagen sie das wahrscheinlichste Wort bzw. den wahrscheinlichsten Satz vorher. Je größer der Trainingsdatensatz ist, desto mehr Kombinationsmöglichkeiten gibt es, und desto ‚kreativer‘ wirkt das Modell. Die schiere Größe von Modellen wie GPT-4 stellt aber bereits einen schwer […]

Mensch-Maschine-Wahrnehmung

Der Mensch sucht sich selbst in nicht-menschlichen Lebewesen und in unbelebten Artefakten. Affen, die „nächsten Verwandten“, oder Hunde, die „treuesten Begleiter“ sind für ersteres, Roboter sind für letzteres gute Beispiele: Eine menschenähnliche Gestaltung der Roboter-Körper und eine vermenschlichende sprachliche Rahmung ihrer Fähigkeiten unterstützt, so die Hypothese, die Anthropomorphisierung dieser Maschinen und in der Folge auch […]

Über die Tyrannei der Mehrheit

Large Language Models (LLMs) leisten, wenn sie Texte generieren, eine Vorhersage des statistisch wahrscheinlichsten Wortes. Aus der Tatsache, dass das vorhergesagte Wort oder der vorhergesagte Satz das wahrscheinlichste ist, lässt sich zum einen noch nicht schließen, ob er wahr oder falsch ist. Zum anderen führt die Vorhersage von Wahrscheinlichkeiten zu einer Bevorzugung der Mehrheitsmeinung. Wenn […]

Mensch-Maschine-Kreativität

An Sprachmodelle, die Texte auf der Grundlage von Wahrscheinlichkeiten generieren, nähern wir uns am besten mit einer gesunden Skepsis im Hinblick auf die Faktentreue und mit etwas Humor an. Jack Krawczyk, der bei Google für die Entwicklung des Chatbots „Bard“ verantwortlich ist, bekannte im März 2023 ganz offen: „Bard and ChatGPT are large language models, […]

It’s the statistics, stupid

„It’s the statistics, stupid“, könnte man formulieren, wenn es um den Umgang mit generativen vortrainierten Sprachmodellen (generative pretrained transformer, GPT) geht. Den müssen wir jedoch alle noch lernen, ein Jahr nach der Präsentation von ChatGPT. Statistische Zusammenhänge bilden den Schlüssel, um zu begreifen, wie stochastische Vorhersagemodelle funktionieren und was sie zu leisten imstande sind. Einfach […]