Klischees in KI: Smart Mirror, AGI-Risiken, KI in Schulen und Seilbahnpläne

05.04.2025 116 mal gelesen 5 Kommentare

"Smart Mirror" enthüllt Klischees in KI-Trainingsdaten

Am Girls' Day im KI-Kompetenzzentrum ScaDS.AI in Leipzig konnten Schülerinnen den "Smart Mirror" testen, ein KI-Tool, das Kleidung auf Kommando verändert. Dabei zeigte sich, dass die KI nicht nur Outfits, sondern auch Körpermaße anpasst, was auf stereotype Schönheitsideale in den Trainingsdaten hinweist. Die Designerin Vanessa Kuhfs und der Data Scientist Johannes Häfner erklärten, wie der Spiegel als Reflexionstool genutzt werden kann, um technische Zusammenhänge und gesellschaftliche Klischees zu verdeutlichen.

Die Schülerinnen experimentierten mit verschiedenen Kostümen, wobei die KI oft fehlerhafte oder klischeehafte Ergebnisse lieferte. So wurden Polizistinnen bauchfrei dargestellt, und ein "Batman"-Kostüm wurde aufgrund von Copyright-Beschränkungen verweigert. Die Designerin betonte die Verantwortung der Entwickler, Stereotype in KI-Systemen zu minimieren.

"Wir haben unheimlich viel Macht und Verantwortung, wenn wir solche Systeme entwickeln", sagte Vanessa Kuhfs.

Zusammenfassung: Der "Smart Mirror" zeigt, wie Klischees in KI-Trainingsdaten sichtbar werden. Er dient als Werkzeug, um über die Funktionsweise und die gesellschaftlichen Auswirkungen von KI zu reflektieren. (Quelle: MDR)

AGIs: Potenzial für schwere Schäden

Eine Analyse auf Golem.de warnt vor den Risiken von Artificial General Intelligences (AGIs). Diese fortgeschrittenen KI-Systeme könnten durch Fehlfunktionen oder Missbrauch erhebliche Schäden verursachen. Experten betonen, dass die Entwicklung solcher Systeme strengen ethischen und sicherheitstechnischen Standards unterliegen muss.

Die Diskussion um AGIs zeigt, dass die Technologie sowohl Chancen als auch Risiken birgt. Während sie komplexe Probleme lösen könnte, besteht die Gefahr, dass sie unkontrollierbar wird. Die Notwendigkeit internationaler Regulierungen wird hervorgehoben, um Missbrauch zu verhindern.

Zusammenfassung: AGIs könnten erhebliche Schäden verursachen, wenn sie nicht sorgfältig reguliert werden. Die Diskussion um ethische Standards und Sicherheitsmaßnahmen ist entscheidend. (Quelle: Golem.de)

KI im Klassenzimmer: Fachtag in Main-Tauber

Im Main-Tauber-Kreis fand der erste Fachtag "KI und Schule" statt, organisiert vom Kreismedienzentrum. Über 130 Lehrkräfte nahmen an 30 Vorträgen und Workshops teil, die sich mit den Potenzialen und Risiken von KI im Bildungswesen beschäftigten. Thomas Irion von der Pädagogischen Hochschule Schwäbisch Gmünd betonte, dass KI personalisierte Lernangebote ermöglichen und Lehrkräfte entlasten kann.

Alexander Fischer vom Medienzentrum Mittelbaden zeigte praktische Anwendungen wie die Nutzung von ChatGPT für Textverarbeitung und Unterrichtsplanung. Gleichzeitig wurde die Rolle von KI in Prüfungen kritisch hinterfragt. Workshops boten Einblicke in die Grundlagen und fachdidaktischen Ansätze zur Integration von KI in den Unterricht.

Zusammenfassung: Der Fachtag "KI und Schule" zeigte die vielfältigen Einsatzmöglichkeiten von KI im Bildungsbereich, betonte aber auch die Notwendigkeit eines verantwortungsvollen Umgangs. (Quelle: Main-Post)

Heilbronn plant Seilbahn zum KI-Innovationspark

Der Gemeinderat in Heilbronn hat die Vorplanungen für eine Seilbahn beschlossen, die den Hauptbahnhof mit dem geplanten KI-Innovationspark verbinden soll. Die Strecke soll fast fünf Kilometer lang sein und fünf Stationen umfassen. In 14 Minuten könnten bis zu 1.500 Personen pro Stunde den KI-Hotspot erreichen.

Die Seilbahn wäre die erste ihrer Art in Baden-Württemberg und soll mit normalen Nahverkehrstickets nutzbar sein. Die Stadtverwaltung plant, Fördergelder zu beantragen, um das Projekt voranzutreiben. Ähnliche urbane Seilbahnen gibt es bereits in Städten wie London und Paris.

Zusammenfassung: Heilbronn plant eine innovative Seilbahnverbindung zum KI-Innovationspark, die als Teil des öffentlichen Nahverkehrs dienen soll. (Quelle: SWR)

Quellen:

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Also echt krass, wie die KI aus nem "Smart Mirror" einfach Polizistinnen bauchfrei macht, woher weiß die überhaupt sowas, hat wohl Hollywood-Daten gefüttert bekommen!?
Also ich muss mal sagen, diese Diskussion um den "Smart Mirror" ist echt spannend. Mir war gar nicht so klar, wie stark so eine KI das beeinflussen kann, was wir sehen – und vor allem, dass sie offenbar auch noch 'ne Menge Klischees aus den Trainingsdaten übernimmt. Der Kommentar von Klischeekeks hat das ja ganz gut verdeutlicht: Polizistinnen bauchfrei – echt jetzt? Ich frage mich auch, wer festlegt, was da reinkommt und was nicht. Werden solche Algorithmen nicht eigentlich überprüft, bevor sie raus in die Welt gehen?

Ich finde aber auch, dass dieser Smart Mirror, so problematisch er teilweise ist, ein echt guter Ansatz ist, um Schüler:innen (oder generell der Öffentlichkeit) zu zeigen, wie problematisch KI sein kann, wenn sie nur aus Standard-"Hollywood"-Daten lernt – das war ein guter Punkt oben. Eigentlich müsste sowas viel öfter passieren, also so Erlebnisse, wo man Technik gleich kritisch hinterfragt. Auf jeden Fall Hut ab an die Macher, dass sie die Fehler im System nicht verschleiern, sondern sogar darauf hinweisen. Das erfordert schon 'ne gewisse Offenheit.

Abgesehen davon frage ich mich manchmal, warum solche Themen hauptsächlich auf Veranstaltungen wie dem Girls’ Day oder speziellen Fachtagen zur Sprache kommen. Klar, das ist ein guter Start, aber wieso fehlt diese Art von Reflexion eigentlich im Alltag? Das Thema „KI in Schulen“ aus dem Artikel zeigt ja ganz gut, dass es wichtig wäre, solche Technologien direkt in die Bildung einzubinden. Aber das wird bestimmt wieder ein ewiges Thema, gerade wenn es um Datenschutz oder Chancengleichheit geht. Ich meine, wie soll sich ein kleineres Medienzentrum oder eine ländliche Schule so coole KI-Programme leisten wie größere Städte oder Kreise?

Und dann noch was zu Heilbronn: Die Idee mit der Seilbahn ist an sich ja cool, aber mal ehrlich – wieso wird immer KI vorgeschoben, um solche Projekte zu verkaufen? Soll diese Seilbahn den KI-Innovationspark „klüger“ machen? Oder geht's einfach drum, einen technischen Aufhänger zu haben, um Fördergelder zu beantragen? Ich bin übrigens gespannt, wie viele „Seilbahn-Touristen“ dann wirklich dahin fahren. Nette Idee, aber wirkt irgendwie mehr wie PR statt echtes Verkehrsmanagement.

Insgesamt ist der Artikel 'ne gute Erinnerung dran, dass Technologie immer auch von den Menschen geprägt wird, die sie entwickeln (und trainieren). Verantwortung, so wie Vanessa Kuhfs das betont hat, ist dabei echt der Schlüssel – aber lasst uns bitte nicht immer erst über Klischees reden, nachdem alles schon programmiert wurde.
Also äää ich find das mit dem Smart Mirror echt interessant, aber auch bisschen scary ehrlich gesagt. Wieso MUSS ne KI steoreotype Übernehmen, ist das nicht iwie schlampig programmiert oder so? Ich kann mir nicht vorstelln, dass sowas nich vermeidbar wär. Klar, die Daten sind wahrscheinlich voller Hollywood- und Werbefilme, aber sorry, wer trainiert das so und hat keine Bedenken?! Das mit den Politzistinen (!) im bauchfreien Look – jaaa, hallo? Sowas dürfte doch nich durchgehen.

Andererseits zeigt das ja auch wieder, wie dolle wir von solchen KI’s beeinflusst werden. Wenn Schülerinnen da drüber nachdenken, is das gut, aber gleichzeitig könnte das auch demotiviern... Nachm Motto: „Warum sieht die KI mich so an?“... Schlimm. Vanessa Kuhfs hat ja stark betont, dass Entwickler Verantwortung haben. Hätt aber gern mehr gelesen, wie konkret die da ne Lösung vorstellen. Theorie schön und gut, aber wer macht den ersten Schritt?

Das mit 'ner Seilbahn nach Heilbronn is dagegen iwie futuristisch. Frag mich nur, ob das nötig is. Es klingt nich nach „Notsituation“, mehr wie 'ne PR-Aktion. Aber schön für alle, die das toll finden. Sollten vielleicht gucken, dass die Seilbahn richtig gut in der Stadt funktioniert, bevor sie auf KI-Zug aufspringen. Sonst wirds peinlich, haha.

AGIs find ich auch so nee Nummer für sich. Klar, die könnten heftig Schaden machen, aber das is doch bissl Paranoia, oder? Wenn wir jetzt schon alle AGIs verbieten, würdn andere Länder (vielleicht China?!) sicher nich mitmachen und am Ende haben WIR nix davon und hinken hinterher. Solangs Regeln gibt, sollte das doch gehen, oder bin ich da bisschen zu... optimistish?
Also ich find die Idee mit dem "Smart Mirror" ja irgendwie witzig, aber auch ziemlich beunruhigend. Wie kann so ne KI bitte auf die Idee kommen, Polizistinnen bauchfrei zu machen, das wirkt doch total wie so nen schlechter Film aus den 80ern oder sowas. Weiß jemand, wie die das genau testen oder woher die Daten für sowas kommen? Hab mal gehört, dass KI-Systeme oft mit so nem Sammelsurium an Daten ausm Netz gefüttert werden, aber wer checkt denn sowas auf Inhaltsfehler??? Ist doch total verantwortungslos, wenn da niemand überprüft, dass keine Klischees drin sind.

Und dann zu der Schul-KI: Klingt ja ganz nett, dass Lehrer entlastet werden, aber am Ende macht doch eh wieder die Technik schlapp oder spuckt irgendnen Blödsinn aus, oder? Bekommen die Schüler dann überhaupt noch vernünftige Inhalte oder kommt da dann irgendwann so KI-generierter Einheitsbrei wie "Hier bitte mehr lernen". Lustig wärs ja, wenn die KI am Ende selbst falsche Infos ausspuckt und dann wird jahrelang Mist weitergelernt … kennt das wer von euch?

Die Seilbahn schnallt ich überhaupt nicht!? Wieso zum Hauptbahnhof, warum nicht gleich ne U-Bahn oder sowas? Klingt für mich auch bisschen nach einer von diesen seltsamen Großprojekten, die ewig dauern und dann funktioniert nachher nix richtig, wie BER nur in klein? Vielleicht sollte man auch da lieber ne KI fragen, ob das wirklich ne gute Idee is oder ob nen Shuttle-Bus nich günstiger wär lol.
Ich frag mich ob die KI auch mal die Outfits von Feuerwehrmännern klischeehaft ala Superhelden aussehen lässt, wär ja witzig zu wissen.