Inhaltsverzeichnis:
Anthropologe: Skepsis gegenüber Künstlicher Intelligenz in rechten Milieus
Der US-Kulturanthropologe Damien Stankiewicz berichtet, dass viele Menschen, die die rechtsextreme französische Partei Rassemblement National wählen, Künstliche Intelligenz (KI) und insbesondere Sprachprogramme wie ChatGPT mit großer Skepsis betrachten. In einer südfranzösischen Stadt, deren Name nicht genannt wird, hat Stankiewicz im Rahmen des wissenschaftlichen Ansatzes des "Deep hanging out" über Jahre hinweg beobachtet, wie Menschen in politisch rechten Milieus Medien und KI wahrnehmen.
Stankiewicz betont, dass die Technologie von vielen nicht als Fortschritt, sondern als Bedrohung empfunden wird. Er sieht Regierungen und Gemeinden in der Pflicht, Maßnahmen zu ergreifen, um Ängste abzubauen und die Bevölkerung besser über KI aufzuklären.
„Viele Menschen in rechten Milieus finden KI angsteinflößend.“ (Damien Stankiewicz)
- Rechtsextreme Wählergruppen zeigen große Skepsis gegenüber KI.
- Die Angst vor KI ist in bestimmten gesellschaftlichen Gruppen besonders ausgeprägt.
Infobox: In rechten Milieus wird KI laut Stankiewicz häufig als Bedrohung wahrgenommen, was politische und gesellschaftliche Herausforderungen mit sich bringt. (Quelle: derStandard.de)
Schule im KI-Zeitalter: Herausforderungen und Chancen für das Lernen
Künstliche Intelligenz ist in deutschen Schulen längst angekommen. Laut einer im Oktober 2024 veröffentlichten Bitkom-Studie haben 51 Prozent der Lehrkräfte bereits Erfahrungen mit KI-Anwendungen wie ChatGPT, SchulKI oder FieteAI im Unterricht gesammelt. Weitere 28 Prozent planen, entsprechende Tools künftig zu integrieren, während nur elf Prozent den Einsatz kategorisch ablehnen.
In Nordrhein-Westfalen testen seit dem zweiten Schulhalbjahr 2024/25 insgesamt 25 ausgewählte Schulen den Einsatz von KI-Tools im Mathematik- und Deutschunterricht. Mecklenburg-Vorpommern erprobt an 16 Schulen ein KI-gestütztes Feedbacksystem zur individuellen Förderung. Professorin Katharina Scheiter von der Universität Potsdam sieht die größte Herausforderung darin, dass viele Lehrkräfte weniger praktische Erfahrung mit KI haben als ihre Schüler. Sie fordert gezielte Fortbildungen und betont, dass nicht nur die Bedienung, sondern auch das Verständnis der Funktionsweise von KI vermittelt werden müsse.
Ein von Joscha Falck mitentwickeltes KI-Kompetenzmodell gliedert sich in die Bereiche Verstehen, Anwenden, Reflektieren und Mitgestalten, jeweils mit drei Kompetenzstufen. Im Zentrum steht die Fähigkeit, KI-Tools verantwortungsvoll zu steuern und zu gestalten. Professorin Angelika Beranek von der Hochschule München warnt davor, dass KI vor allem das Erwartbare produziert und fordert, Kreativität und kritisches Denken zu fördern.
Lehrkräfte mit KI-Erfahrung | Lehrkräfte planen KI-Einsatz | Lehrkräfte lehnen KI ab |
---|---|---|
51 % | 28 % | 11 % |
- Der „DigitalPakt 2.0“ sieht bis 2031 zusätzliche fünf Milliarden Euro für die digitale Ausstattung und Fortbildung vor.
- Die Bildungsministerkonferenz hat eine Handlungsempfehlung für den konstruktiv-kritischen Umgang mit KI verabschiedet.
Infobox: KI ist fester Bestandteil des Schulalltags, doch es fehlt oft an Reflexionsfähigkeit und praktischer Erfahrung bei Lehrkräften. Die Politik investiert bis 2031 zusätzlich fünf Milliarden Euro in die digitale Bildung. (Quelle: WEB.DE)
Künstliche Intelligenz in der Medizin: Chancen, Grenzen und Herausforderungen
KI-Systeme sind in der Medizin längst im Einsatz, insbesondere in der Radiologie, Dermatologie, Pathologie, Onkologie und Notfallmedizin. Laut einer Umfrage des Rechercheinstituts FactField im Auftrag von FOCUS-Gesundheit halten 89 Prozent der befragten Ärztinnen und Ärzte KI für ein sinnvolles Instrument bei der Diagnostik, etwa beim Erkennen von Tumoren oder seltenen Erkrankungen. 74 Prozent sehen Potenzial in der Therapieplanung, während 85 Prozent erwarten, dass KI sie bei administrativen Aufgaben wie Dokumentation und Abrechnung entlasten kann.
Dr. Sven Jungmann, Arzt und KI-Experte, betont, dass KI-Systeme große Datenmengen analysieren, Muster erkennen und Vorschläge machen, die ärztliche Entscheidung aber immer menschlich bleibt. In der Pflege wird das Potenzial digitaler Assistenzsysteme bislang kaum genutzt, obwohl hier ein hoher Bedarf besteht. Die Qualität und Diversität der Daten sind entscheidend für die Zuverlässigkeit von KI-Systemen. Fehlerhafte oder unvollständige Daten können zu gefährlichen Fehleinschätzungen führen.
Bereich | Potenzial laut Ärzten |
---|---|
Diagnostik (z.B. Tumorerkennung) | 89 % |
Therapieplanung | 74 % |
Administrative Entlastung | 85 % |
- KI kann Frakturen, Tumoren und Lungenerkrankungen auf Röntgen- und CT-Bildern erkennen.
- In der Dermatologie analysiert KI Fotos von Hautveränderungen und gibt Risikoeinschätzungen ab.
- In der Notfallmedizin hilft KI bei der EKG-Auswertung und kann in Echtzeit Alarm schlagen.
„Wir brauchen keine Gleichberechtigung zwischen Mensch und KI, sondern eine strategische Arbeitsteilung.“ (Dr. Sven Jungmann)
Infobox: 89 % der Ärzte sehen KI als sinnvolles Instrument in der Diagnostik, 85 % erwarten Entlastung bei administrativen Aufgaben. Die ärztliche Entscheidung bleibt jedoch unverzichtbar. (Quelle: FOCUS online)
Künstliche Intelligenz im Vertrieb: Eva von Simpli.bot als Gamechanger
Viele Unternehmen mit über 100 Leads pro Monat stehen vor dem Problem, dass Anfragen unbeantwortet bleiben und das Vertriebsteam überlastet ist. Laut Braunschweiger Zeitung bleiben 73 Prozent der Anfragen unbeantwortet, wenn keine KI-Lösung eingesetzt wird. Eva von Simpli.bot, ein KI-Vertriebsassistent, übernimmt bis zu 90 Prozent der wiederkehrenden Aufgaben im Vertrieb und ist 365 Tage im Jahr rund um die Uhr einsatzbereit.
Eva reagiert oft innerhalb von 20 Sekunden auf Kundenanfragen, was die Abschlusswahrscheinlichkeit im Vergleich zu einer Antwort in sechs Minuten beinahe vervierfachen kann. Studien zeigen, dass eine Reaktion innerhalb der ersten fünf Minuten die Abschlusswahrscheinlichkeit um bis zu 2.100 Prozent steigern kann. Die Terminvereinbarung wird automatisiert, was zu Terminquoten von bis zu 95 Prozent führt. Eva bleibt beim Follow-up konsequent und erhöht die Abschlussrate um bis zu 80 Prozent.
Mit KI-Vertriebsassistent | Ohne KI-Vertriebsassistent |
---|---|
100 % der Leads werden beantwortet | 27 % der Leads werden beantwortet |
Terminquote bis zu 95 % | n/a |
Abschlussrate +80 % | n/a |
- Eva übernimmt Reaktionszeiten, Qualifizierung, Terminvereinbarung, Follow-up und Reputationsmanagement.
- Unternehmen erzielen mehr Abschlüsse bei gleichem Budget und steigern die Kundenzufriedenheit.
Infobox: Eva von Simpli.bot beantwortet 100 % der Leads, steigert die Abschlussrate um bis zu 80 % und übernimmt bis zu 90 % der Routineaufgaben im Vertrieb. (Quelle: Braunschweiger Zeitung)
Künstlerin thematisiert KI: Chancen und Risiken im Fokus
Die Dautphetaler Künstlerin Johanna Krämer setzt sich in ihrem neuen Werk „Schlaraffenland“ mit den Verheißungen und Risiken der Künstlichen Intelligenz auseinander. Sie betont, dass KI in vielen Bereichen wie Universitäten, Schulen, Haushalten und Pflegeeinrichtungen bereits Einzug gehalten hat. Gleichzeitig nehmen laut Krämer die Befürchtungen zu, dass KI tiefgreifende Veränderungen für das Leben der Menschheit mit sich bringt.
Ihr Bild thematisiert die Versprechen eines leichteren Lebens durch KI, stellt aber auch die Frage, was Menschen wirklich glücklich macht. Krämer fordert, die in jedem Menschen vorhandenen Ressourcen klug und vorausschauend einzusetzen und betont, dass ihr Werk ohne Mitwirkung von KI entstanden ist.
- KI ist bereits Teil des Alltags in vielen Lebensbereichen.
- Die Künstlerin sieht sowohl Chancen als auch Risiken und plädiert für einen bewussten Umgang mit KI.
Infobox: Johanna Krämer thematisiert in ihrer Kunst die Chancen und Risiken von KI und fordert einen klugen, vorausschauenden Einsatz der Technologie. (Quelle: Mittelhessen)
Zunehmende Halluzinationen bei KI: Herausforderungen für Meta, OpenAI und Google
Meta, OpenAI und Google investieren Milliarden in die Entwicklung von KI, doch die Zahl der Halluzinationen – also fehlerhafte oder erfundene KI-Antworten – nimmt zu. Die Kosten für Hardware explodieren: So kostet ein H100-Chip von Nvidia 40.000 Dollar. Metas neues KI-Modell Behemoth sollte mit Tausenden dieser Chips betrieben werden, doch die Einführung wurde wegen zu vieler Fehler und mangelndem Leistungssprung verschoben.
Ein Teil der Entwickler bei Meta zweifelt daran, dass der erwartete Leistungssprung die hohen Kosten rechtfertigt. Die Einführung von Behemoth wurde ohne neuen Termin verschoben. Gleichzeitig machen chinesische Unternehmen wie Huawei und SMIC trotz US-Sanktionen Fortschritte in der Chipentwicklung, was die westlichen Annahmen über Chinas technologische Isolation infrage stellt.
- Meta verschiebt die Einführung des KI-Modells Behemoth wegen zu vieler Fehler.
- Ein H100-Chip von Nvidia kostet 40.000 Dollar.
- Chinesische Unternehmen holen bei der Chipentwicklung auf.
Infobox: Die Entwicklung großer KI-Modelle wird durch steigende Kosten und zunehmende Fehler erschwert. Meta hat die Einführung von Behemoth verschoben, während chinesische Unternehmen technologisch aufholen. (Quelle: FAZ.NET)
KI in der Justiz: Fehlerhafte Gerichtsdokumente und wachsende Risiken
In den USA und Israel häufen sich Fälle, in denen KI-generierte Gerichtsdokumente fehlerhafte oder erfundene Inhalte enthalten. Ein kalifornischer Richter verhängte gegen die Elitekanzlei „Ellis George“ eine Geldstrafe von 31.000 US-Dollar, nachdem in einer Klageschrift mit Google Gemini generierte, nicht existierende Publikationen zitiert wurden. Auch das KI-Modell Claude von Anthropic lieferte falsche Literaturangaben in einem Gerichtsverfahren. In Israel berief sich die Staatsanwaltschaft auf nicht existierende Gesetze, was auf KI-Halluzinationen zurückgeführt wurde.
Maura Grossman von der University of Waterloo stellt fest, dass Halluzinationen bei KI nicht abgenommen, sondern zugenommen haben. Besonders problematisch ist, dass auch große Anwaltskanzleien und Sachverständige betroffen sind. Die Fehler entstehen oft, weil Anwälte unter Zeitdruck stehen und die von KI generierten Texte nicht ausreichend überprüfen. Unternehmen bewerben ihre KI-Tools dennoch mit dem Versprechen von Zuverlässigkeit und Genauigkeit.
Fall | Konsequenz |
---|---|
Ellis George (USA) | 31.000 US-Dollar Geldstrafe |
Anthropic (USA) | Falsche Literaturangaben in Gerichtsakte |
Staatsanwaltschaft (Israel) | Berufung auf nicht existierende Gesetze |
- Halluzinationen bei KI nehmen zu, auch bei großen Kanzleien.
- Gerichte sind auf korrekte und überprüfte Dokumente angewiesen.
„Weil diese großen Sprachmodelle so flüssig sind, nehmen wir an, dass sie auch genau sind.“ (Maura Grossman)
Infobox: Fehlerhafte KI-generierte Gerichtsdokumente führen zu Geldstrafen und rechtlichen Problemen. Die Zahl der Halluzinationen nimmt zu, auch bei renommierten Kanzleien. (Quelle: t3n)
Quellen:
- Anthropologe: "Viele Menschen in rechten Milieus finden KI angsteinflößend"
- Schule im KI-Zeitalter: Wie dramatisch Künstliche Intelligenz das Lernen verändert
- Künstliche Intelligenz, menschliche Medizin: Wie KI unser Gesundheitssystem verändert
- Künstliche Intelligenz im Vertrieb: Wie Eva von Simpli.bot dein Vertriebsteam entlastet
- Friedensdorfer Malerin thematisiert Künstliche Intelligenz
- Zunehmende Halluzinationen bei KI: Wie geht es weiter bei Meta, OpenAI und Google?
- KI in der Justiz: Wie sich immer bedenklichere Fehler in US-Gerichte schleichen
- Star Wars: Fortnite-Streit um KI-Stimme von Darth Vader
- Nun offiziell: RHEL 10 ist da – mit KI für Admins
- Sind wir der Meta-KI bei WhatsApp, Facebook und Co. ausgeliefert?
- Suizid nach KI-Chats: US-Gericht lässt Verfahren gegen Google & Co. vorerst zu
- Wohlstand für alle: Wie eine Superintelligenz eines Wormser AI Unternehmens Deutschland transformieren kann
- LG gram Pro AI Cop+ 16 im Test
- Neuer Studiengang AI
- VideoProc Converter AI für Mac: Neue KI kommt + 67 % Lifetime Rabatt
- Meta AI aus WhatsApp entfernen – wie kann man den blauen Kreis loswerden?