Jörg Lohrer's avatar
Jörg Lohrer
joerglohrer@joerg-lohrer.de
npub1f7ja...2fx9
education, religion
Jörg Lohrer's avatar
joerglohrer 2 days ago
"Das Gesetz ist für den Menschen gemacht und nicht der Mensch für das Gesetz" image
Jörg Lohrer's avatar
joerglohrer 1 week ago
## Nutzungsbedingungen für KI die niemand liest Jedes Mal wenn du ChatGPT, Gemini oder Copilot öffnest, akzeptierst du stillschweigend: gestohlene Trainingsdaten, ausgebeutete Clickworker, Rechenzentren auf Kosten des Klimas, Kompetenzauslagerung an Konzerne ohne tragfähiges Geschäftsmodell und eine Machtverschiebung Richtung Silicon Valley. Joep Schuurkes hat das in seinem Blogbeitrag "On the acceptance of GenAI" auf den Punkt gebracht. ### Was mich daran beschäftigt Die Kritik trifft vor allem auf proprietäre Modelle zu. Wer ein offenes Modell wie Gemma, Mistral oder Llama lokal auf eigener Hardware betreibt, verändert die Bilanz: - **Trainingsdaten**: Bei BLOOM oder OLMo dokumentiert und nachvollziehbar. Bei GPT-4 oder Claude? Intransparent. - **Kompetenzauslagerung**: Lokale Inferenz heißt Kontrolle behalten. Keine API-Abhängigkeit, kein Vendor-Lock-in. - **Machtkonzentration**: Offene Gewichte verteilen Macht. Mistral ist Europa, Qwen ist China, nicht alles ist Silicon Valley. - **Ökologische Kosten**: Lokale Inferenz auf einem NAS verbraucht einen Bruchteil dessen, was Cloud-Calls kosten. Aber seien wir ehrlich: Die Trainingsinfrastruktur bleibt bei den Hyperscalern. RLHF-Pipelines mit fragwürdigen Arbeitsbedingungen sind branchenüblich. Und auch offene Modelle entstehen in GPU-Clustern. ### Was das mit Nostr zu tun hat Nostr folgt derselben Logik wie offene Modelle: Protokoll statt Plattform. Keine zentrale Instanz, die Bedingungen diktiert. Deine Keys, deine Daten, deine Relays. Wenn wir KI-generierte Inhalte über Nostr publizieren - als OER, als Bildungsmaterial, als Community-Beiträge, dann sollten wir auch hier differenzieren: Welches Modell wurde genutzt? Unter welchen Bedingungen? Mit welcher Infrastruktur? Und auch Metadaten-Transparenz ist kein Nice-to-have, sondern Sorgfaltspflicht. Genau wie bei der Quellenangabe von Bildungsmaterialien. ### Fazit Das ist kein Argument gegen KI-Nutzung. Es ist ein Argument für **informierte Nutzung** und für Infrastrukturen, die Transparenz ermöglichen statt verhindern. Nostr kann dabei eine Rolle spielen. `Inspiriert und CC BY-NC Joep Schuurkes https://smallsheds.garden/blog/2026/on-the-acceptance-of-genai` #GenAI #KIkompetenz #OER #DigitaleBildung #nostr #OpenSource #Souveränität #DiDay image
Jörg Lohrer's avatar
joerglohrer 2 weeks ago
Claude lobt mich: ⏺ Respekt! An einem Abend von null auf ein funktionierendes Smart-Home-System: - Design-Spec fuer die komplette Warema-Migration geschrieben - Home Assistant auf der Synology zum Laufen gebracht - Shelly Plug S aus dem Gaeste-WLAN befreit und in HA eingebunden - Matrix-Bot aufgesetzt und Automatisierungen gebaut - Und das alles sauber dokumentiert Vom Warema-Touchpanel aus 2011 zu einem offenen, modularen System — in einem Abend die Grundlage gelegt. Nicht schlecht!
Jörg Lohrer's avatar
joerglohrer 2 weeks ago
Hey @Markus Deimann kurzer Zwischenstand: Dein DILeMa-Beitrag „Imaginaries of Openness in Education" liegt jetzt als deutsche Übersetzung auf oer.community vor – inklusive englischem Original. Wird in den nächsten Tagen veröffentlicht. Die Übersetzung hab ich mit LLM-Unterstützung (DeepL, ChatGPT, Claude) gemacht und redaktionell durchgearbeitet. In der Einführung kontextualisiere ich auch, dass dilema-journal.de seit Längerem nicht erreichbar ist und der Text so im Sinne deines eigenen Arguments dezentral und mehrsprachig wieder zugänglich wird. Fand ich passend 😉 Hier der aktuelle Stand im Repo: Für das Beitragsbild hab ich eine abstrakte Illustration im Kopf: drei sich überlappende halbtransparente geometrische Formen für die drei Imaginarien, mit offenen/geschlossenen Türen als Hintergrundtextur. Hast du ein eigenes Bild, das du lieber verwenden würdest, oder passt das so? Freu mich auf dein Feedback! image