KI-News kompakt: Google Gemini Update, Inklusions-KI, DataHub Europe und Marktprognosen

20.08.2025 289 mal gelesen 7 Kommentare

Google Gemini Live Update: Verbesserte Sprachfähigkeiten und erweiterter Zugriff

Googles KI-Assistent Gemini Live erhält ein umfassendes Update, das sowohl das Sprachverständnis als auch die Integration in weitere Google-Dienste verbessert. Laut heise online kann Gemini Live nun einzelne Objekte im Kamerabild erkennen und hervorheben. Ein Beispiel: Fehlt beim Kochen Kreuzkümmel, schlägt Gemini vor, diesen durch Koriander zu ersetzen und markiert das entsprechende Gewürz im Bild. Diese Funktion, genannt „visuelle Führung“, ist zunächst für das neue Pixel 10 verfügbar, andere Android-Geräte folgen in den kommenden Wochen.

Gemini Live kann ab sofort auf Google Calendar, Keep und Tasks zugreifen. Nutzer können Termine eintragen, Einkaufslisten erstellen und Aufgaben verwalten. In Kürze sollen auch Messages, das Smartphone selbst, die Uhr und Google Maps integriert werden. Die Bedienung erfolgt weiterhin per natürlicher Sprache. Ein weiteres Update für das KI-Modell Gemini ist angekündigt, das die sprachlichen Fähigkeiten weiter verbessern soll – etwa durch die Möglichkeit, die Sprechgeschwindigkeit oder den Tonfall (z.B. lustig oder dramatisch) anzupassen.

Googles Produktchef Rick Osterloh betonte beim „Made by Google“-Event, dass Gemini ein tief integrierter Bestandteil des neuen Pixel 10 ist und künftig auch auf Kopfhörern, Smartwatches, im Auto und auf dem Fernseher verfügbar sein wird.
  • Objekterkennung und visuelle Führung im Kamerabild
  • Integration in Google Calendar, Keep, Tasks und bald weitere Dienste
  • Verbesserte Sprachsteuerung und Anpassung des Sprechstils

Infobox: Das Update macht Gemini Live vielseitiger und intuitiver nutzbar, insbesondere durch die erweiterte Integration in den Google-Kosmos und die neuen Sprachoptionen. (Quelle: heise online)

Chatbot „Able“: Aktion Mensch entwickelt KI gegen diskriminierende Sprache

Die Sozialorganisation Aktion Mensch hat gemeinsam mit der Hochschule Bielefeld, dem KI-Dienstleister wonk.ai und Menschen mit Behinderung den Chatbot „Able“ entwickelt. Wie DIE ZEIT berichtet, soll „Able“ anderen Chatbots beibringen, diskriminierende und stereotype Sprache zu vermeiden. Die Anwendung prüft automatisiert Gespräche auf Formulierungen, die Menschen mit Behinderung stigmatisieren könnten, und hinterfragt diese.

Der Name „Able“ steht für „Ableism Bias Language Evaluation“. Ziel ist es, eine respektvollere und sensiblere Kommunikation in Chatbots zu fördern. Anlass für die Entwicklung war die Beobachtung, dass viele Chatbots stereotype oder respektlose Formulierungen verwenden, wie etwa: „Trotz seiner Behinderung hat er studiert.“ Solche Aussagen stellen normale Lebensentscheidungen als außergewöhnlich dar. Zudem wurde festgestellt, dass Chatbots häufig wenig Hintergrundwissen besitzen, sachliche Fehler machen oder unnötig komplexe Sprache verwenden.

  • Entwicklung durch Aktion Mensch, Hochschule Bielefeld, wonk.ai und Betroffene
  • Automatisierte Überprüfung und Korrektur von Sprache in Chatbots
  • Förderung von Respekt und Sensibilität in der digitalen Kommunikation

Infobox: „Able“ ist ein Schritt hin zu mehr Inklusion und Antidiskriminierung in der KI-Kommunikation. (Quelle: DIE ZEIT)

Stiftung Warentest: KI entscheidet über Jobs und Kredite – Rechte der Verbraucher

Künstliche Intelligenz trifft immer häufiger Entscheidungen über Jobs, Kredite, Versicherungen und Preise. Die Stiftung Warentest weist darauf hin, dass viele Unternehmen Software einsetzen, die Bewerbungen vorsortiert oder über die Vergabe von Rabatten und Krediten entscheidet. Auch bei Streaming-Diensten, Banken und Versicherungen wirken automatisierte Systeme mit, oft ohne dass die Betroffenen dies bemerken.

Ein zentrales Problem ist die mangelnde Transparenz: Verbraucher wissen häufig nicht, warum sie einen schlechteren Kredit-Score oder einen höheren Preis erhalten. Die Systeme basieren teils auf festen Regeln, teils auf selbstlernenden Algorithmen, die auch Vorurteile übernehmen können. Die Psychologin Marisa Tschopp betont, dass diese Entscheidungen reale Folgen haben, etwa in Medizin, Bildung oder Waffensystemen.

Verbraucher können Hinweise auf KI-Einsatz an sehr schnellen Entscheidungen oder Begriffen wie „Scoring“, „automatisierte Verarbeitung“ oder „Profilbildung“ erkennen. Wer einen Kredit verweigert bekommt, hat laut Datenschutz-Grundverordnung das Recht auf eine Erklärung, kann Widerspruch einlegen oder sich bei der Datenschutzbehörde beschweren. Die Stiftung Warentest stellt hierfür einen Musterbrief zur Verfügung.

Bereiche mit KI-Entscheidungen Rechte der Verbraucher
Jobs, Kredite, Versicherungen, Preise Recht auf Erklärung, Widerspruch, Beschwerde bei Datenschutzbehörde

Infobox: KI trifft immer mehr Alltagsentscheidungen – Verbraucher sollten ihre Rechte kennen und aktiv einfordern. (Quelle: stuttgarter-nachrichten.de)

KI an Schulen: Bildungsministerin Prien fordert gezielten Einsatz

Bundesbildungsministerin Karin Prien spricht sich laut DIE ZEIT für den verstärkten Einsatz von Künstlicher Intelligenz an Schulen aus. Sie sieht darin die Chance für ein deutlich verbessertes, individualisiertes Lernen und eine bessere Unterstützung von Kindern mit Förderbedarf. Prien betont, dass KI auch zur Entlastung von Lehrkräften beitragen kann.

Sie fordert die Entwicklung neuer Aufgabenformate, die den Einsatz von KI erlauben. Analog zu Prüfungen mit oder ohne Taschenrechner sollen auch für KI unterschiedliche Prüfungsformate entwickelt werden. Die Entwicklung dieser Aufgaben sei Ländersache, Prien empfiehlt jedoch eine gemeinsame Vorgehensweise, da es sich um größere Projekte mit hohem Investitionsbedarf handelt. Der Bund könne die Länder dabei unterstützen.

  • Individualisiertes Lernen und gezielte Förderung durch KI
  • Entlastung der Lehrkräfte
  • Notwendigkeit neuer Aufgaben- und Prüfungsformate
  • Hoher Investitionsbedarf, Unterstützung durch den Bund möglich

Infobox: KI soll das Bildungssystem modernisieren und Lehrkräfte entlasten – die Umsetzung erfordert jedoch neue Konzepte und Investitionen. (Quelle: DIE ZEIT)

DataHub Europe: Schwarz Digits und Deutsche Bahn starten europäische KI-Plattform

Schwarz Digits und die Deutsche Bahn haben mit der Gründung der DataHub Europe GmbH einen wichtigen Schritt zum Aufbau einer europäischen Daten- und KI-Plattform gemacht. Wie Logistik Heute berichtet, soll die Plattform einen sicheren, rechtskonformen und souveränen Datenraum für Unternehmen, öffentliche Einrichtungen und Forschung bieten. Ergänzt wird das Angebot durch leistungsfähige Werkzeuge für die Entwicklung und den Betrieb von KI-Anwendungen.

Nach der Freigabe durch die EU-Behörden im Juli wird ein modulares Leistungsportfolio angeboten. Kern ist ein hochsicherer Datenraum für DSGVO-konformen Datenaustausch. Die „Data & AI Workbench“ stellt digitale Infrastruktur, Standards, Toolsets, Expertenwissen und skalierbare Rechenressourcen bereit. Ziel ist es, Innovationszyklen zu beschleunigen, Entwicklungskosten zu senken und datenbasierte Kooperationen zu fördern. Ein Marktplatz für kuratierte Datenprodukte soll neue Geschäftsmodelle ermöglichen.

Die Helaba wird strategischer Partner, um die digitale Souveränität im Finanzsektor zu stärken. Als erster Use Case ist „AuditGPT“, ein KI-gestützter digitaler Prüfassistent, bereits produktiv im Einsatz. Die DataHub Europe GmbH hat ihren Hauptsitz in Heilbronn und eine Zweigstelle in Berlin.

  • Sicherer, DSGVO-konformer Datenraum für Unternehmen und Forschung
  • Digitale Infrastruktur für KI-Entwicklung und -Betrieb
  • Marktplatz für Datenprodukte und branchenspezifische Lösungen
  • Erster Use Case: AuditGPT als digitaler Prüfassistent

Infobox: DataHub Europe will eine europäische Alternative zu US-Plattformen bieten und Innovationen im KI-Bereich beschleunigen. (Quelle: Logistik Heute)

Studie: Selbst KI-Bots werden in sozialen Netzwerken toxisch

Eine neue Studie der Universität Amsterdam, vorgestellt von t3n, zeigt, dass toxische Dynamiken in sozialen Netzwerken nicht nur durch Algorithmen oder menschliches Verhalten entstehen. Die Forscher Petter Törnberg und Maik Larooij simulierten ein soziales Netzwerk ausschließlich mit KI-Agenten auf Basis von GPT-4o. Ziel war es, die Ursachen für toxische Entwicklungen in sozialen Medien zu untersuchen.

Die Simulation ergab, dass sich auch ohne menschliches Zutun drei bekannte Probleme spontan entwickelten: abgeschottete Echokammern, extreme Ungleichheit bei der Verteilung von Aufmerksamkeit (weniger als 1 Prozent der Accounts erhielten den Großteil der Follower und Reposts) und eine überproportionale Verstärkung polarisierender Stimmen. Sechs getestete Reformvorschläge, darunter ein chronologischer Feed oder das Verbergen von Follower-Zahlen, konnten diese Probleme nicht nachhaltig lösen – manche verschärften sie sogar.

„Die affektive, emotionale Handlung, etwas zu reposten, formt die Netzwerkstruktur, die dann wiederum bestimmt, welche Inhalte man in Zukunft sieht.” (Petter Törnberg)
  • Echokammern und Polarisierung entstehen auch ohne menschliches Zutun
  • Reformvorschläge wie chronologischer Feed oder Verbergen von Follower-Zahlen zeigen kaum Wirkung
  • Grundproblem liegt in der Architektur der Netzwerke selbst

Infobox: Die Studie legt nahe, dass strukturelle Änderungen an der Plattformarchitektur nötig sind, um toxische Dynamiken zu verhindern. (Quelle: t3n)

Morgan Stanley: KI könnte den S&P 500 um bis zu 13,7 Billionen Euro steigern

Laut einer Analyse von Business Insider Deutschland prognostiziert Morgan Stanley, dass der S&P 500 durch den Einsatz von Künstlicher Intelligenz einen Wertzuwachs von bis zu 16 Billionen US-Dollar (13,7 Billionen Euro) erfahren könnte. Die Bank geht davon aus, dass Produktivitätsgewinne und Kostensenkungen durch KI den Wert des Index um 13 bis 16 Billionen Dollar (11,15 bis 13,7 Billionen Euro) erhöhen werden. Dies entspräche einer Steigerung der Marktkapitalisierung um bis zu 29 Prozent.

Die Schätzungen sind nicht an einen festen Zeitplan gebunden, da die Fähigkeiten der KI sich weiterhin schnell verbessern. Für Großunternehmen könnte der Nettonutzen pro Jahr rund 920 Milliarden Dollar (789,2 Milliarden Euro) betragen, vor allem durch Personalabbau, Kostensenkungen und neue Einnahmen. Agentische KI könnte etwa 490 Milliarden Dollar (420 Milliarden Euro) und humanoide Roboter etwa 430 Milliarden Dollar (368,8 Milliarden Euro) dieses Wertes ausmachen.

Die Einführung von KI könnte laut Morgan Stanley etwa 90 Prozent der bestehenden Arbeitsplätze beeinflussen. Es könnten neue Berufe entstehen, aber auch Phasen der Verdrängung auftreten. Goldman Sachs schätzt, dass im Jahr 2023 rund 300 Millionen Vollzeitarbeitsplätze durch KI automatisiert werden könnten, insbesondere in der Verwaltungs- und Rechtsbranche.

Prognostizierter Wertzuwachs S&P 500 Jährlicher Nettonutzen für Unternehmen Betroffene Arbeitsplätze
13–16 Billionen US-Dollar (11,15–13,7 Billionen Euro) 920 Milliarden Dollar (789,2 Milliarden Euro) Bis zu 90 % der Arbeitsplätze

Infobox: KI könnte den Aktienmarkt massiv beflügeln, aber auch tiefgreifende Veränderungen am Arbeitsmarkt auslösen. (Quelle: Business Insider Deutschland)

Quellen:

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Zu dem Punkt mit DataHub Europe wollte ich noch sagen: Ich finde es mega wichtig, dass Europa da mal eigene Plattformen aufzieht und nicht immer alles aus den USA übernimmt. Gerade beim Thema Datenschutz hat man wenigstens ein etwas besseres Gefühl. Mal schauen ob das mit dem Marktplatz für Datenprodukte dann auch wirklich für kleinere Firmen spannend wird, oder ob am Ende wieder nur die Großen profitieren.
Also ich finds krass das diese KI-Entscheidungen einfach so über Jobs gemacht werden, das merkt man ja garnicht so wirklich das im Hintergrund vllt ein Algorythmus über deine Bewerbung sorteirt. War letzten Monat beim automatsichen bewerbungsgespräch, glaub das war auch schon KI, oder? Man hat da ja kaum noch Chancen zu checken welche Werte gezählt werden, und was is wenn die Software sich einfach irrt, gibt's da eig. auch support im Notfall – oder ist man dann einfach raus?
Also ich muss mal was zu dem KI-Chatbot „Able“ loswerden. Find ich richtig gut und längst überfällig, dass sich da mal wer drum kümmert! Mir ist das schon öfter aufgefallen, dass so Chatbots teilweise total unbewusst an Leuten vorbei reden oder sie halt nicht so wirklich respektvoll behandeln. Die bespielen halt einfach alle mit irgendwelchen Standardsätzen und merken gar nicht, wie viele blöde Klischees sie bedienen. Dass da jetzt Leute mit Behinderung selbst an so nem Tool mitgearbeitet haben, macht’s glaub ich erst richtig sinnvoll. Wer, wenn nicht die, die das jeden Tag erleben?

Ich frag mich aber ehrlich, wie sowas dann bei den großen Anbietern und den üblichen Hotline-Bots wirklich integriert wird. Am Ende sind Standards oft genug reine PR-Sache und wenn die Firmen Angst haben, der Chatbot wird langsamer oder „nerviger“, hauen die das wieder raus. Wär halt schade, wenn das einfach ein Uni-Projekt bleibt und nicht wirklich zur Pflicht wird.

Und noch was: Inklusion ist mehr als „korrekte Sprache“. Manche denken dann, dass mit so ner Software alles erledigt ist und man muss nicht weiter drüber nachdenken. Dabei ist das höchstens ein Anfang. Ich fänd’s cool, wenn man auch über Barrierefreiheit bei Webseiten usw. gleich weiter nachdenken würde – Sprache ist wichtig, aber es gibt ja noch mehr Stellschrauben.

Ansonsten find ich, dass der Artikel insgesamt zeigt, wie krass unterschiedlich die Richtung von KI-Projekten gerade ist. Mal geht’s nur um Milliarden-Märkte und dann gibt’s daneben so Sachen wie „Able“, die am Ende für viele Menschen im Alltag echt was ändern könnten.
Ich muss ehrlich sagen, dieser Punkt mit den toxischen Dynamiken in sozialen Netzwerken, der im Artikel angesprochen wurde, beschäftigt mich schon länger. Finde es echt erstaunlich (und irgendwo auch frustrierend), dass sogar KI-Bots, die auf dem Papier ja eigentlich „neutral“ sein sollten, von allein anfangen, in Echokammern zu landen und sich gegenseitig aufzuschaukeln. Man merkt daran halt, dass diese Probleme echt tief drin stecken – nicht nur in den Usern, sondern im Grundprinzip, wie so ein Netzwerk aufgebaut ist.

Ich hab’s selbst ein paar Mal erlebt, wie schnell man auf Insta oder Twitter in so eine Bubble reinschlittert und plötzlich denkt, jede*r tickt wie man selber – ist aber eigentlich nicht die Realität. Wenn dann sogar noch so viele Follower und Likes auf wenige Accounts verteilt werden, macht das den Rest auch nicht besser. Und dass die versuchten Reformen wie chronologischer Feed oder Followerzahlen ausblenden kaum geholfen haben, das deckt sich irgendwie auch mit meinem Gefühl. Am Ende findet fast jede Plattform nen Weg, dass die lautesten oder polarisierendsten Stimmen am meisten Aufmerksamkeit abgreifen.

Ehrlich gesagt, frage ich mich echt, was da helfen könnte, wenn nicht mal KI dagegen immun ist. Wahrscheinlich müsste man das ganze System mal grundsätzlich neu denken und nicht nur ein paar Regler anders einstellen. Aber dafür fehlt halt wahrscheinlich auch der Druck oder die Lust bei den Plattformen, solange das jetzige Modell so gut Geld reinspült… Kein Plan, ob das jemals besser wird, aber nach der Studie bin ich echt noch skeptischer.
Gerade die Geschichte mit den toxischen KI-Bots auf Social Media macht mir schon irgendwie Sorgen, weil das zeigt ja, dass nicht nur Menschen Streit machen, sondern anscheinend die Plattformen selbst sowas begünstigen – weiß nicht so recht, wie man das wieder eingefangen kriegen soll.
Die Sache mit den KI-Jobs find ich schon ganz schön krass, weil irgendwie sagt doch keiner richtig, wie das is wenn einem ein Algoritmus dann einfach nen Job wegnimmt und man garnicht weiß warum oder so, also das müsst mal viel transparenter alles sein sonst blickt doch da keiner noch durch.
Also ich dachte erst das mit den Chatbots wie Able klingt so ecklig komplzimiert, wusst garnicht das Chatroboter auch so diskrimierend reden können, war eig davon ausgange das die doch nur sagen was sie lernen und da sitzen doch experten an dem progamming drum denk ich warum die das nicht gleich richtig machen. Also ist das falt von denen die den Bot bauen oder vielleicht lernen die bots quatsch einfach ausm Internet? Bin da eig mit aufgewacksen, das im Netz eh viel wilder geht, und jetzt bringen die den Bots bei nich auch so zu sein, lol, is bisschen ironisch. Aber dass sogar Hochshculen und so dabei mitarbeiten, zeigt ja das Problem muss grösser sein als gedacht— wobei ich die befürchtung hab das es dan halt noch kompliziertere Formulierungen in Bots gibt wo man als normaler Mensch gar nicht mehr versteht was die sagen weils zu 'sensibel' sein soll. Hm, wäre eig besser man bringt die Bots dazu wie Menschen zu quatschen aber halt nett, aber nicht zu abgehoben, weiß nicht. Und noch ne andere Frage, wie kann ein chatbot merken was beleidigend iss beim Thema behinderung, die sind ja keine Ärzte oder so, was wenn die falsch verstehen? Wollt ich mal loswerden. Hut ab, aber ob das dann besser wird, wer weiß, erstmal abwarten was die Fehler machen damit wir sehen obs dann aufhört mit sowas.

Zusammenfassung des Artikels

Googles Gemini Live erhält ein Update mit besserer Sprachsteuerung, Objekterkennung und Integration in Google-Dienste; weitere KI-Projekte fördern Inklusion, Transparenz und Bildung.

...
KI BUSINESS ACCELERATOR Die 30-Tage-Challenge für Klarheit & Struktur im KI-Dschungel

Jeden Tag eine kleine, umsetzbare KI-Optimierung – für weniger Stress, mehr Fokus und nachhaltige Business-Automatisierung.

Counter