Sozialgespräch Podcast

Sozialgespräch Podcast

Digitaler Wandel und Kommunikation - mit Menschen, für Menschen

Transkript

Zurück zur Episode

[0:00] Generative KI und soziale Arbeit. Drei Ebenen, auf denen wir uns befassen sollten. Sozialgespräch, der Podcast rund um Social Impact, digitalen Wandel und vor allem mit inspirierenden Menschen. Auf geht's!

[0:16] Music.

[0:22] Ja, hallo zusammen. Das sind wir und heute mit einer Solo-Folge im Sozialgespräch-Podcast. Wird eine kurze, versprochen, aber ich dachte mir, das macht bei dem Thema Sinn, das mal via Audio und etwas persönlicher zu machen als nur schriftlich. Es geht, das habt ihr am Eingang gehört, um generative KI und generative KI-Tools wie Chat-GPT, Co-Pilot und so weiter und eben ihr Verhältnis oder ihre Bedeutung für die soziale Arbeit. Und ich sehe da auf jeden Fall drei Ebenen, auf denen wir uns damit beschäftigen sollten. Und wenn ich von wir spreche, meine ich Fachkräfte, Einrichtungen und Führungsebene der sozialen Arbeit, Sozialwirtschaft und Wohlfahrt.

[1:06] Die erste ist ganz klar die Unterstützung und Begleitung unserer KlientInnen, Rat- und Hilfesuchenden, AdressatInnen bei der verantwortungsvollen, reflektierten Nutzung von generativen KI-Tools, die schon da sind. Wir kommen gleich noch dazu, ob wir KI wirklich in einen Lebensbereich wollen, aber das ist für mich eine andere Ebene. Die erste Ebene ist, die generativen KI-Tools sind jetzt erst mal zumindest da. Und es wäre aus meiner Sicht fatal, wenn wir den gleichen Fehler machen, den wir in der sozialen Arbeit sehr lange mit Social Media gemacht haben, nämlich die Augen zu verschließen und zu sagen, ach, wird schon wieder weggehen, betrifft uns nicht. Das halte ich für komplett falsch.

[1:47] Unsere Klienten und Klientinnen arbeiten bereits im Alltag damit. Ich kenne viele Jugendliche, aber auch ältere Menschen, eigentlich Menschen aus allen Altersgruppen, die ChatGPT und Co. Schon regelmäßig nutzen, primär mobil, aber eben auch im Desktop und das in ihren Alltag integriert haben. Zum Teil mit hervorragender Anwendungskompetenz, teilweise aber eben recht unreflektiert im Sinne von fehlendem Verständnis für die Datennutzung. Was gebe ich da ein? Wie sieht es mit der Privatsphäre aus? Was macht das mit mir, wenn ich das zu häufig verwende? Und jetzt gerade mit dem vor kurzem vorgestellten GPT-4-O von ChatGPT oder OpenAI, wo ich ja mit der mobilen App auch wirklich sprechen kann, als würde ich mit einer Person sprechen, wenn das Netz gut ist, auch ohne Verzögerung. Ja, da denke ich, wird das nochmal eine ganz große Rolle spielen, diese Begleitung der Klienten und Klienten. Denn das Ding ist inzwischen so gut, dass man wirklich das Gefühl haben könnte, ich spreche da mit einem virtuellen Kollegen oder einem Bekannten oder Mentor oder was auch immer. Und das kann natürlich auch massiven Einfluss darauf haben, wie Menschen sich sozialisieren, aber auch, was für Daten sie da reinwerfen.

[3:06] Und diese Begleitung setzt voraus, dass wir als Fachkräfte der sozialen Arbeit natürlich diese Tools ausreichend verstehen und selber genug Anwendungskompetenz entwickeln, um überhaupt die Risiken einschätzen und dann auch sinnvoll und strukturiert weitergeben und nutzen zu können. Nutzen in der Beratung, nutzen im Gespräch, in der Beziehungsarbeit mit unseren KlientInnen. Das heißt, wir müssen erstmal selber in der Lage sein, das zu verstehen, bevor wir anfangen können, hier Unterstützungsleistungen anzubieten. Und das setzt voraus, dass wir uns aktiv damit beschäftigen. Nicht unreflektiert, sondern sehr kritisch und sehr fachlich reflektiert. Wir müssen es trotzdem verstehen und nutzen können, um überhaupt unterstützen zu können.

[3:48] Die zweite Ebene ist tatsächlich dann die Nutzung in der eigenen Arbeit. Und da meine ich eben nicht mit Klienten und Klientinnen, sondern in täglichen Arbeitsabläufen. Wo können solche generativen KI-Tools für uns tatsächlich eine echte und signifikante Zeit- und Arbeitserleichterung oder Ersparnis bringen? Auch diese Frage lässt sich nur durch reflektierte, mit Datenschutzgrenzen ausgestattete Tests und Piloten in Einrichtungen und Trägern herausfinden, meiner Meinung nach. Das heißt, wir müssen da strukturiert evaluieren und testen und auch experimentieren, immer unter der Maßgabe des Datenschutzes, immer mit klaren Grenzen und fachlich reflektierten Regelungen und Guidelines.

[4:33] Wichtig ist mir da aber auch, dass wir so kritisch reflektiert sind, dass wir drei Fragen uns immer stellen und beantworten. Frage 1.

[4:42] Bringt es eine echte Arbeitserleichterung oder ist es nur gefühlt? Gefühlt heißt, es fühlt sich cooler und es fühlt sich schneller an. Objektiv dauert es aber genauso lang.

[4:51] Mag sein, dass es eine gewisse Qualitätsverbesserung gefühlt ist dann, also von der Arbeitsqualität her. Aber ist es das dann wirklich wert? Denn Punkt zwei, wir müssen uns immer der Kosten bewusst sein. Und da müssen wir die Frage stellen, welche Tools können wir auch verantwortungsvoll und in Übereinstimmung mit unseren Werten und unserer Haltung auch nutzen? Sind wir uns dessen bewusst, wie viel ökologische Kosten Stromverbrauch und Wasserverbrauch zum Beispiel die Rechenzentren fressen? Sind wir uns bewusst, welche soziale Kosten, also sprich, wie viel schlecht bezahlte Arbeiter und Arbeiterinnen in Afrika zum Beispiel Daten vorsortieren und da wirklich dafür schuften, dass diese Dinge funktionieren können? Sind wir uns bewusst, welche Biases diese Tools auch drin haben, die wir da nutzen? Sind wir uns bewusst, welche sozialen Auswirkungen das haben können, wenn wir auch anfangen, sie zu verwenden? Also, versteht mich nicht falsch, es gibt überhaupt nicht mal einen unkritischen Einsatz, aber wir sollten trotzdem prüfen, wo der Einsatz sinnvoll sein kann für uns. Einfach deshalb, weil wir dadurch a, mehr Zeit für die Arbeit mit den Menschen schaffen und b, weil wir es uns bis zu einem gewissen Punkt aus meiner Sicht auch nicht leisten können, die realen Chancen und Potenziale dieser Technik komplett zu ignorieren.

[6:13] Denn der Druck, der wirtschaftliche Druck in unserem Bereich wird leider immer größer. Und wir sollten schon schauen, wie wir da freien Raum für die Arbeit mit den Menschen schaffen. Und vielleicht es schaffen, formale Anforderungen und Co.

[6:25] Mit solchen Tools eben abzumildern oder effizienter zu gestalten. Nicht um Arbeitsplätze abzuschaffen oder zu ersetzen, sondern um Zeit für das Wesentliche zu schaffen.

[6:38] Und jetzt kommt die dritte Ebene und die kann natürlich den ersten beiden auf Dauer ein bisschen zuwiderlaufen, aber das fände ich persönlich ganz gut tatsächlich. Und zwar unser sozialpolitischer und lobbyistischer Auftrag aus meiner Sicht. Wir müssen uns oder sollten uns als soziale Arbeit natürlich auch mitbeteiligen, wenn es um die Reglementierung wie beim European AI Act zum Beispiel geht. Wenn wir in Deutschland dann die Umsetzung von solchen Regelungen in Gesetze oder Vorgaben haben. Wenn es darum geht, auch gesellschaftlichen Bewusstsein dafür zu schaffen, wie funktionieren die Tools, was passiert mit den Daten, welche Kosten hängen da dran, aber auch welche Auswirkungen kann das sozial haben, also gesellschaftlich haben, wenn wir eine Generation bekommen, die nicht primär mit dem Smartphone, sondern primär mit KI-Assistenten auf Smartphone oder in Brillen und Co. Aufwächst und mit denen spricht die Menschen. Was macht das mit der Sozialisation unserer Gesellschaft? Was macht das mit menschlichen Fähigkeiten, mit Textverständnis, schriftlicher Ausdrucksweise und so weiter, wenn wir uns daran gewöhnen, sowas einfach generieren zu lassen und uns selber zu wenig mit beschäftigen?

[7:54] Welche Anwendungswerte machen Sinn? Wie kann es auch sinnvoll sein, Regeln aufzustellen für den Einsatz von generativen KI-Tools? All diese Dinge, das sollten wir als Stimme der sozial Benachteiligten, der Schwachen, der gesellschaftlich verantwortungsvollen Gruppen reinbringen. Und wir sollten immer und immer wieder auch darauf hinweisen, dass diese Tools eindeutig Beißes haben, also Vorurteile, dass sie eben nicht neutral sind. Dass da viel auch reproduziert wird, was an gesellschaftlichen Stereotypen und Vorbehalten da ist. Ja, darauf sollten wir hinweisen, denn ich bin mir ziemlich sicher, die kommerziellen Anbieter werden das nicht tun. Das fände ich zwar schön, aber es ist kein echter Vorwurf, denn das ist nicht ihr Job. Aber unser Job ist es definitiv, sie daran zu erinnern, dass sie eine Verantwortung haben. Ja, also das sind die drei Ebenen, die ich sehe, wo KI und Sozialarbeit auf jeden Fall mit etwas zu tun haben muss, aus sozialer Arbeit sich beschäftigen sollte. Die Begleitung, Unterstützung unserer Klienten, Rat- und Hilfesuchenden, Adressatinnen bei der verantwortungsvollen, sinnvollen, reflektierten Nutzung. Die gezielte, sinnvolle, effiziente Nutzung in unserer eigenen Arbeit. Und unser Lobbyauftrag zu einer verantwortungsvollen, nachhaltigen, gesellschaftlich positiven Nutzung von KI beizutragen und die dafür nötigen Rahmenbedingungen mitzuentwickeln.

[9:17] Am Schluss noch ein kurzer Hinweis, so ein kurzer Ausblick. Das mache ich mal als eigenen Beitrag, habe hier schon mal der Teaser. Gerade wird ja oft gesagt, wir werden in einigen Jahren viel mit diesen generativen KITOs arbeiten. Die werden überall sein. Und das steckt ja auch so ein bisschen in meiner These oder als Annahme zumindest in den drei Ebenen drin, die ich hier genannt habe. Wir sollten uns aber darüber im Klaren sein, das ist kein Naturgesetz. Dass wir in einigen Jahren überall generative KI-Tools nutzen, kann sein. Aber aktuell ist das ein Narrativ, das ganz klar von den Big-Tech-Unternehmen, die eben auch von diesen KIs profitieren, gepusht wird.

[10:00] Wir sind aber durchaus in der Lage, und das wäre eigentlich auch eine Aufgabe der sozialen Arbeit, wie ich finde, ein eigenes Narrativ aufzubauen. Also wir könnten durchaus die Frage stellen, was ist denn, wenn wir ein Zukunftsszenario annehmen, in dem wir nicht überall generative KI haben? Was ist es, wenn wir uns zum Beispiel an der DSGVO orientieren und eine Kosten-Nutzen-Abwägung von vornherein einbauen und generative KI-Tools eben nicht so frei für alle verfügbar sind wie heute, sondern ihr Einsatz gerechtfertigt werden muss? Heute ist es ja fast schon so, dass ich mich rechtfertigen muss, wenn ich keine generativen KI-Tools nutze. Aber was ist, wenn wir das als Logik umdrehen? Was ist, wenn wir das verankern würden und sagen, wenn eine Organisation, eine Person, wer auch immer, generative KI-Tools einsetzen will für bestimmte Aufgaben, dann muss sie anhand von festgelegten Kriterien nachweisen, dass der Einsatz die Kosten übersteigt und der Nutzen größer ist als die Kosten und erst dann werden generative KI-Tools auch für die Nutzung freigegeben.

[11:09] Nur so ein Impuls, ich werde das als Szenario und Utopie noch ein bisschen ausbauen, aber ich persönlich denke, wir müssen uns davon lösen, dass wir alle davon ausgehen, dass das ganz automatisch überall sein wird. Nee, es ist ein mögliches Szenario, aber wir können durchaus andere Szenarien gestalten. In der Vergangenheit haben wir als Gesellschaft auch schon Technologien abgelehnt, respektive nicht so breit einführen lassen, wie es mal gedacht war. Vor vier, fünf Jahren gab es diesen Riesenhype der Sprachassistenten. Ja, wir haben die heute mit Alexa und Co., aber dennoch sind die längst nicht so flächendeckend in allen Lebensbereichen so durchdringend angekommen, wie damals Big Tech es in seinen Erzählungen und seinen Visionen hat kommen sehen. Die sind da, aber nicht so allgegenwärtig. Es spricht nichts dagegen.

[12:05] Dass ihr bei LKI genauso gemeinsam als Gesellschaft und soziale Arbeit, könnte hier eine laute Stimme sein, auch ein anderes Narrativ bauen und entwickeln.

[12:16] Nur als Food for Thought, also als kurzer Impuls zum Nachdenken. Ja, und zum Abschluss würde mich jetzt eure Meinung natürlich interessieren. Zum einen zu den drei Ebenen, Orientierung, Begleitung der KlientInnen, eigene Verantwortung zur Nutzung, Lobbyauftrag bei der Gestaltung der Rahmenbedingungen, auch im Sinne der bisher stark benachteiligten und nicht gehörten, nicht berücksichtigten. Aber auch zu meinem kurzen Impuls, können wir, wollen wir ein anderes Narrativ fahren oder wollen wir dieses Narrativ von Big Tech übernehmen und davon ausgehen, dass es einfach überall sein wird.

[12:54] Ich freue mich über euer Feedback, ich freue mich über Diskussionen und bin sehr gespannt, was ihr auch zu dieser kurzen Solo-Folge sagt. Das wird jetzt nicht die Regel, keine Sorge, aber immer wieder, wenn ich so ein Thema habe, dass ich persönlich etwas persönlicher mit euch besprechen möchte, als nur in einem Text, werde ich hier auch eine Solo-Folge machen. Die nächste ist dann wieder mit zwei GesprächspartnerInnen. Es geht auch um KI und es geht um Guidelines zu KI. Und ich freue mich schon darauf, denn das Gespräch war richtig gut und ich freue mich sehr darauf, was ihr sagen werdet. Danke für eure Zeit und Aufmerksamkeit. Bis zum nächsten Sozialgespräch. Macht's gut. Sozialgespräch, der Podcast rund um Social Impact, digitalen Wandel und vor allem mit Inspirationen.

[13:39] Music.

Über diesen Podcast

Sozialgespräch - der Podcast rund um Social Impact, digitalen Wandel und vor allem mit inspirierenden Menschen. Mit meinen GesprächspartnerInnen spreche ich über (digitale) Soziale Arbeit, Social Entrepreneurship, (digitale) Bildung und New Work.

Mein Name ist Christian Müller - online bekannt als sozialpr - und ich freue mich, wenn du beim Sozialgespräch dabei bist. Wenn du mehr über mich wissen willst, wirst du hier fündig https://www.sozial-pr.net/christian-mueller/.

Themenvorschläge, Kommentare und GesprächspartnerInnen sind herzliche willkommen.

Viel Spaß, wir hören uns!

von und mit Sozialgespräch

Abonnieren

Follow us