Inhaltsverzeichnis:
39C3-Messe: Open-Source-KI gegen Datensammler
Auf dem 39C3 in Hamburg präsentieren Entwickler Alternativen zu großen Tech-Unternehmen, die datenschutzfreundliche KI-Tools und Messenger anbieten. Marco Bartsch, ein Programmierer aus Berlin, zeigt mit seinem KI-Assistenten OpenMates, wie Nutzerdaten geschützt werden können, indem nur relevante Informationen anonym an Chatbots weitergegeben werden.
„Dazu wird diese Frage komplett anonym gestellt“, erläutert Marco Bartsch.
In Deutschland schneidet die Digitalisierung im EU-Vergleich nur mittelmäßig ab, jedoch setzen immer mehr Unternehmen auf KI. Die Messe zeigt, dass es auch ohne umfassende Datensammlungen geht, was die Hoffnung auf ein Umdenken bei den Nutzern weckt.
Zusammenfassung: Der 39C3 in Hamburg zeigt datenschutzfreundliche Alternativen zu großen Tech-Unternehmen, insbesondere durch den KI-Assistenten OpenMates, der anonymisierte Datenübertragung ermöglicht.
Das Ringen um die Rolle der KI im Klassenzimmer
Die Bildungsforscherin Susanne Schwab fordert, dass Schulen lernen müssen, produktiv mit digitalen Technologien und KI-Tools umzugehen, anstatt sich mit Verboten gegen den Wandel zu wehren. Sie betont, dass der Umgang mit KI im Klassenzimmer frühzeitig erlernt werden sollte, um Lernprozesse zu fördern.
Im Rahmen der Semesterfrage der Universität Wien wird diskutiert, wie Schulen sich auf die Veränderungen durch KI einstellen können. Schwab plädiert für eine offene Haltung gegenüber neuen Technologien, um die Schüler auf die Zukunft vorzubereiten.
Zusammenfassung: Susanne Schwab fordert eine produktive Integration von KI in den Schulunterricht, um Schüler auf die Herausforderungen der Zukunft vorzubereiten.
Eine halbe Million mit KI verdienen: OpenAI will Sicherheitsposten besetzen
OpenAI hat eine neue Stelle ausgeschrieben, die mit einem Gehalt von 555.000 US-Dollar und Aktienoptionen dotiert ist. Gesucht wird ein Head of Preparedness, der für die Qualitätssicherung der KI-Modelle verantwortlich ist und ein kleines Team leitet, das sich mit den Risiken und Fähigkeiten der Modelle beschäftigt.
Die Rolle umfasst auch die Verantwortung für den sicheren Umgang mit psychischen Erkrankungen und Cybersicherheit. Diese Stellenausschreibung zeigt, dass OpenAI nach den jüngsten Vorfällen, bei denen Nutzer emotionale Abhängigkeiten von KI entwickelten, verstärkt auf Sicherheit setzt.
Zusammenfassung: OpenAI sucht einen Head of Preparedness mit einem Gehalt von 555.000 US-Dollar, um die Sicherheit und Qualität seiner KI-Modelle zu gewährleisten.
„Der akademische Abschluss wird künftig weniger wert sein“: Wie radikal Künstliche Intelligenz die Bildung verändert
Zukunftsforscher Hartwin Maas warnt, dass der akademische Abschluss an Wert verlieren wird, da KI zunehmend Aufgaben übernimmt, die früher als Kern akademischer Leistungen galten. Er betont, dass viele Studierende sich nur oberflächlich mit dem Lernstoff beschäftigen und die Fähigkeit zum eigenständigen Denken abnimmt.
Maas fordert eine grundlegende Reform des Bildungssystems, um sicherzustellen, dass Schüler und Studierende die notwendigen Kompetenzen erwerben, die nicht automatisierbar sind. Dies erfordere einen klaren Fokus auf Zukunftskompetenzen in der Bildung.
Zusammenfassung: Hartwin Maas prognostiziert, dass akademische Abschlüsse an Wert verlieren, da KI viele traditionelle Lernaufgaben übernimmt, und fordert eine Reform des Bildungssystems.
Künstliche Intelligenz und Wikipedia: Wenn die KI sich Bücher ausdenkt
Mathias Schindler, ein Wikipedia-Autor, berichtet über die Herausforderungen, die KI-generierte Inhalte für die Plattform mit sich bringen. Er hat einen Checksum-Checker entwickelt, um falsche ISBNs zu identifizieren, die von KI generiert wurden, und um sicherzustellen, dass die Informationen auf Wikipedia korrekt sind.
Schindler warnt, dass falsche Informationen, die durch KI verbreitet werden, auch in andere Sprachen übernommen werden und somit die Integrität der Plattform gefährden. Er fordert eine sorgfältige Überprüfung der Inhalte, um die Verbreitung von Falschinformationen zu verhindern.
Zusammenfassung: Mathias Schindler warnt vor den Gefahren von KI-generierten Inhalten auf Wikipedia und hat einen Checksum-Checker entwickelt, um falsche Informationen zu identifizieren.
Quellen:
- 39C3-Messe: Open-Source-KI gegen Datensammler
- Das Ringen um die Rolle der KI im Klassenzimmer
- Eine halbe Millionen mit KI verdienen: OpenAI will Sicherheitsposten besetzen
- „Der akademische Abschluss wird künftig weniger wert sein“: Wie radikal Künstliche Intelligenz die Bildung verändert
- Künstliche Intelligenz und Wikipedia: Wenn die KI sich Bücher ausdenkt
- KI und Arbeit: Keine Langeweile mehr dank KI? Bloß nicht!













