Hallo willkommen zur vierten Ausgabe von Digital braucht Sozial. Dieser Newsletter kommt zu einer ungewöhnlichen Zeit und außerhalb meines monatlichen Rhythmus. Ein Abschied im engsten Familienkreis war in den letzten Wochen meine Priorität und hat alle anderen Themen in die zweite Reihe verschoben. Der so gewonnene Abstand war jedoch eine gute Zeit für Reflexion. Ein Ergebnis des Nachdenkens: Dieser Newsletter erscheint künftig 14-tägig. An Inhalt und Länge der einzelnen Themen ändert sich nichts, doch ich reduziere ihn auf ein Fokusthema, ein ergänzendes Thema und die Linkempfehlungen. Wenn das für dich gut klingt, freue ich mich, dich weiter dabei zu haben. Heute geht es im Fokusthema darum, warum wir KI-Modelle mit sozialem Content "füttern" sollten. Und aktuellen Themen geht es darum, warum und wie ihr der Nutzung eurer Daten durch Metas neue AI bis spätestens zum 26. Mai 2025 widersprechen könnt und aus meiner Sicht solltet. Ich wünsche viel Spaß bei der Lektüre. Viele Grüße, Christian 💡 Fokusthema: Lasst uns KI-Modelle mit sozialem Content flutenAktuell beginnt auch bei gemeinnützigen Organisationen, Verbänden und Einrichtungen der Wohlfahrt die Diskussion darüber, ob wir unseren Content - also unsere online auf unseren Webseiten verfügbaren Inhalte - für das Training von KI-Modellen freigeben oder sperren sollen. Einschub: Die Frage, ob Anbieter wie Open AI oder Google entsprechende Hinweise überhaupt zur Kenntnis nehmen oder berücksichtigen, lasse ich hier mal bewusst beiseite. Wenn wir davon ausgehen, dass wir viele unserer Inhalte vor der Nutzung für das Kl-Training schützen könnten, lautet meine Antwort auf die Frage: Personen sollten ihre Daten nicht freigeben und der Nutzung widersprechen. Als Organisationen der Zivilgesellschaft und Wohlfahrt sollten wir unseren selbst erstellten Content auf unseren Webseiten jedoch ganz bewusst für das Training von Kl-Modellen freigeben. Mehr noch: Ich plädiere dafür, dass wir sozialen Content aktiv in die KI-Modelle einbringen. Mit „sozialem Content” meine ich Inhalte zu sozialen, gesellschaftlichen und sozialpolitischen Themen, die aus der Perspektive der Zivilgesellschaft und Sozialen Arbeit beleuchtet, erklärt und eingeordnet werden. Content zu Fachthemen der Sozialen Arbeit darf gerne auch dabei sein, ist für diesen Ansatz jedoch nur zweitrangig. Ich empfehle also allen Organisationen, die sich in irgendeiner Form mit sozialen Themen befassen, ihre Inhalte gezielt in ChatGPT und andere KI-Werkzeuge einzuspeisen. Meine Basis für diese EmpfehlungDie Trainingsdaten der bekannten KI-Werkzeuge - ChatGPT, Claude, Le Chat, Copilot und Gemini - haben bei sozialen und gesellschaftlichen Themen einen starken ökonomischen Bias. Das ist zumindest der Eindruck, den ich in meiner Arbeit mit zahlreichen Teams aus dem sozialen Bereich und dem Austausch mit Kolleginnen und Kollegen gewinne. Die Perspektive der Sozialen Arbeit, ihre (Fach)Themen oder gemeinnützig ausgerichtete Perspektiven sind dagegen äußerst schwach vertreten. Auch diverse oder inklusive Perspektiven sind fast nicht vorhanden. Diese Lücken lassen sich teilweise nur über Anpassungen des System-Prompts und Strukturen der Dienste schließen. Dafür brauchen wir Regulierung und gesetzliche Vorgaben. Doch ein ebenso wichtiger Teil sind ausreichend viele Trainingsdaten - und die können wir als Wohlfahrt, Zivilgesellschaft und Soziale Arbeit liefern. Klar wäre es wünschenswert, wenn Betreiber von KI-Tools dazu verpflichtet wären, diese Lücken komplett selbst zu schließen. Doch darauf sollten und dürfen wir nicht warten! Wenn wir KI mitgestalten, auf Gemeinwohl - und Sozialorientierung ausrichten - oder diese Perspektiven zumindest stärker einbringen - wollen, müssen wir aktiv werden. 👍 Handlungsempfehlung: Wie füttern wir KI konkret?Wenn dieser Ansatz für euch überzeugend klingt, lade ich euch ein, aktiv zu werden. Dafür sehe ich zwei einfache und zwei etwas aufwändigere Möglichkeiten.
Zugegeben, die vierte Option wird ChatGPT und Co. nicht direkt verändern. Doch sie kann uns dabei helfen, zwei wichtige Entwicklungen anzustoßen oder zu unterstützen.
Es gibt bereits erste wirklich gute Projekte und Initiativen in dieser Richtung, über die ich, wenn sie euch interessieren, gerne in der nächsten Ausgabe berichte. Sagt mir einfach kurz Bescheid, ob ihr davon lesen wollt. Doch aktuell sind das noch einzelne Inseln. Ich fände es super, wenn daraus eine zusammenhängende Landmasse würde und wir beim Thema KI auf politischer Ebene mit einbezogen werden müssten. Macht ihr mit? ✅ Aktuelles Thema: Meta AI: Warum und wie ihr der Datennutzung bis zum 26. Mai 2025 widersprechen solltetHier nehme ich die Handlungsempfehlung vorweg: Ja, ihr solltet der Nutzung eurer Daten - auch wenn es sich um Kanäle für eure Organisation handelt - widersprechen. Das müsst ihr bis zum 26. Mai 2025 tun. Zumindest bei Facebook und Instagram könnt ihr der Nutzung eurer Daten für die KI widersprechen. Für WhatsApp gilt das nicht, warum erklärt die Verbraucherzentrale in ihrem lesenswerten und umfangreichen Artikel (Link in den Linkempfehlungen am Ende des Newsletters): „Bei WhatsApp gibt es keine Widerspruchsmöglichkeit. Denn bei WhatsApp gibt es keine öffentlichen Daten, die für das KI-Training verwendet werden sollen. Die Chat-Inhalte sind Ende-zu-Ende-verschlüsselt, sodass Meta nicht darauf zugreifen kann. Nur das, was Sie an den Chatbot „Meta AI” schreiben, könnte zu Trainingszwecken verwendet werden. Aber wenn Sie in den Chat mit dem blauen Kreis nichts schreiben, bekommt der (soweit wir wissen) auch keine Daten.” Wenn ihr das tun wollt, empfehle ich euch, folgt den Links in den Linkempfehlungen am Ende des Newsletters. Da ihr dort für den Widerspruch Text eingeben müsst, stelle ich euch hier den bereit, den ich für meinen Widerspruch verfasst habe und der funktioniert hat: Auf meinen Profilen veröffentliche ich zahlreiche fachliche und persönliche Inhalte. Diese berühren einerseits meine Privatsphäre, andererseits habe ich nicht für alle Inhalte die Nutzungsrechte über die redaktionelle Nutzung hinaus. Da ich sowohl meine Privatsphäre als auch meine Verpflichtung zur Einhaltung meiner lizenztechnischen Verpflichtungen ernst nehme, widerspreche ich der Nutzung für das KI-Training, da dieses in beide Bereiche in unzulässiger Weise eingreifen würde. Vermutlich ist es egal, was ihr dort reinschreibt, aber sicher ist sicher. Doch warum empfehle ich den Widerspruch, nachdem ich gerade eben noch soziale und gemeinnützige Organisationen dazu aufgerufen habe, ihre Inhalte der eigenen Webseiten den KI-Modellen frei Haus zu liefern? Weil wir hier von den Daten von Privatpersonen sprechen und die möglichen - heute absehbaren - Auswirkungen einfach zu problematisch sind. Wenn ihr der Meta Al erlaubt, eure Daten zu nutzen, stimmt ihr unter anderem Folgendem zu (Zitat von der Verbraucherzentrale aus dem unten verlinkten Text): “Meta möchte nach eigenen Angaben neben öffentlich zugänglichen Daten im Internet auch “öffentliche Inhalte in Meta-Produkten” nutzen, um eigene KI-Modelle zu entwickeln und weiter zu verbessern. So steht es in der Erläuterung zur Verwendung von Informationen für die generative KI bei Meta. Dabei unterscheidet Meta zwischen Informationen und Aktivitäten, die immer öffentlich sind und Inhalten, für die Sie die Einstellung “öffentlich” wählen können. Zu den Informationen, die immer öffentlich sind, zählen laut Metas eigenen Angaben: - Name, - Facebook- und Instagram-Benutzername, - Profilbild, - Aktivitäten in öffentlichen Gruppen, auf Facebook-Seiten und Kanälen, - Aktivitäten mit Inhalten, die öffentlich sind – beispielsweise Kommentare, Bewertungen oder Rezensionen auf Marketplace oder auf einem öffentlichen Instagram-Konto, - Avatare Inhalte, wie z.B. Beiträge, Fotos und deren Bildunterschriften oder Videos, die Sie im Profil, in Stories oder Reels als öffentlich sichtbar gepostet haben, werden ebenfalls für Metas KI verwendet.” Vielleicht ist all das für euch okay. Dann ignoriert meine Empfehlung bitte einfach. Das gilt jedoch nicht für Organisationen, die Business Profile betreiben. Diesen Aspekt hatte ich zwar nicht auf dem Schirm, doch glücklicherweise hat der geschätzte Dr. Thomas Schwenke seine juristische Einschätzung auf LinkedIn geteilt. Seinen Beitrag verlinke ich ebenfalls unten, hier die relevanten Auszüge: “🛡️ Die Frage ist, ob eine vertragliche oder gesetzliche Pflicht besteht, die o.g. Geschäftspartner und Personen von der KI-Nutzung durch Meta zu schützen.” Thomas bezieht sich hier auf ehemalige und aktuelle Mitarbeitende und die Anbieter von Stock-Fotos. Bei Letztgenannten sieht er kein Problem, bei den Mitarbeitenden jedoch potenziell schon: “🔸 Bei Beschäftigten oder anderen Personen sehe ich die Vorhersehbarkeit zumindest als kritisch an. D.h. ich kann mir z.B. vorstellen, dass ein Gericht den Abgebildeten, z.B. einem gekündigten Arbeitnehmer oder einer Person auf den Aufnahmen einer Betriebsveranstaltung Unterlassungs- und Schadensersatzansprüche zuspricht. 🫷🏻 Daher wäre meine Empfehlung, auch als Unternehmen oder Behörde wegen der Risiken der Rechtslage einen KI-Widerspruch bei Meta zu erklären. Außer Sie sind sich sicher, keine Bildaufnahmen oder Inhalte Dritter gepostet zu haben oder haben sie gelöscht.” Da ich Thomas Rat sehr schätze, nehme ich seine Empfehlung hier mit auf und werde sie selbst befolgen. Abschließend noch eine Bitte, unabhängig von eurem eigenen Content: Wenn ihr mit Klientinnen und Klienten arbeitet, ist meine Bitte: Sprecht mit ihnen darüber, sensibilisiert sie und schafft die Grundlage für eine informierte Entscheidung. Habt ihr der Datennutzung durch die Meta Al schon widersprochen? Wie geht ihr damit um? Ich freue mich auf eure Antworten. 💭 Reflexionsimpuls"Wenn KI die Antwort sein soll, was genau war dann die Frage?" 🔗 Linkempfehlungen
|
Herzlich willkommen! Mein Name ist Christian und in meinem Newsletter "Digital braucht sozial" teile ich meine Einschätzung aktueller Entwicklungen rund um digitale Kommunikation, generative KI und digitales Arbeiten mit dir. Immer mit dem Fokus auf soziale, zivilgesellschaftliche und gemeinnützige Organisationen.
Hallo Reader, willkommen zur fünften Ausgabe von Digital braucht sozial. Heute geht es um eine Chance, die KI für Organisationen und Menschen bietet. Das gilt zumindest für die, die sich auf Menschlichkeit und menschenfreundliche Kommunikation besinnen und den Mut haben, konsequent dazuzustehen und Grenzen zu setzen. Ich teile, warum analoges Arbeiten für mich unverzichtbar ist, um KI wirklich sinnvoll und wirksam zu nutzen. Und es gibt einige Impulse dazu, warum es spätestens jetzt an der...
Hallo Reader, willkommen zur zweiten Ausgabe von Digital braucht Sozial. Bevor wir einsteigen, erlaube ich mir einige persönliche Zeilen: Gerade für Menschen, die im zivilgesellschaftlichen und sozialen Bereich arbeiten, kann die aktuelle Lage - sowohl in Deutschland als auch global - frustrierend und besorgniserregend sein. Es wäre einfach, angesichts all der aus meiner Sicht rückwärtsgewandten Veränderung zynisch zu werden. Meine Bitte: Tut das nicht! Wir brauchen Optimismus und Zuversicht...
Hallo, Reader. Willkommen zur ersten Ausgabe von Digital braucht sozial. Schön, dass du dabei bist. 😊 Die aktuellen Entwicklungen im digitalen Bereich haben mehr als genug Themen für den Newsletter geliefert, ich bin daher gespannt, was du von meiner Auswahl hältst. Wenn dir ein Thema fehlt, antworte mir gerne auf diese E-Mail und ich schaue es mir genauer. Generell sind Feedback, Verbesserungshinweise, Themenwünsche und auch einfach nur Austausch herzlich willkommen. Viel Spaß beim Lesen,...