Anthropic hat Claude 2 eingeführt, ein fortgeschrittenes großes Sprachmodell (LLM), das in den Bereichen Programmieren, Mathematik und logisches Denken hervorragende Leistungen erbringt.
Claude 2 wurde entwickelt, um Gespräche mit einem hilfreichen Kollegen oder persönlichen Assistenten zu simulieren. Die neueste Version wurde fein abgestimmt, um ein verbessertes Benutzererlebnis zu bieten, mit verbesserten Gesprächsfähigkeiten, klareren Erklärungen, reduzierter Erzeugung von schädlichen Ausgaben und erweitertem Speicher.
In der Programmierfertigkeit übertrifft Claude 2 seinen Vorgänger und erzielt einen höheren Score im Codex HumanEval Python-Programmiertest. Auch seine Fähigkeit, Mathematikaufgaben der Grundschule zu lösen, die durch GSM8k bewertet werden, hat sich deutlich verbessert.
"Bei der KI-Programmierung brauchen Entwickler einen schnellen und zuverlässigen Zugang zu Kontextinformationen über ihren einzigartigen Codebestand und ein leistungsfähiges LLM mit einem großen Kontextfenster und starken allgemeinen Denkfähigkeiten", sagt Quinn Slack, CEO und Mitbegründer von Sourcegraph.
"Die langsamsten und frustrierendsten Teile des Entwicklungsprozesses werden schneller und angenehmer. Dank Claude 2 hilft Cody mehr Entwicklern, mehr Software zu bauen, die die Welt voranbringt."
Claude 2 führt erweiterte Eingabe- und Ausgabelängenfunktionen ein, die es ihm ermöglichen, Aufforderungen von bis zu 100.000 Tokens zu verarbeiten. Diese Verbesserung ermöglicht es dem Modell, umfangreiche Dokumente wie technische Anleitungen oder ganze Bücher zu analysieren und längere Kompositionen als Ausgaben zu generieren.
"Wir freuen uns sehr, zu den Ersten zu gehören, die unseren Kunden Claude 2 anbieten, mit verbesserter Semantik, aktuellem Wissenstraining, verbesserter Logik für komplexe Aufforderungen und der Fähigkeit, bestehende Inhalte mühelos mit einem 3X größeren Kontextfenster neu zu mischen", sagte Greg Larson, VP of Engineering bei Jasper.
"Wir sind stolz darauf, unseren Kunden dabei zu helfen, durch Partnerschaften wie diese mit Anthropic an der Spitze zu bleiben."
Anthropic hat sich darauf konzentriert, die Erzeugung von schädlichen oder beleidigenden Ausgaben durch Claude 2 zu minimieren. Während es eine Herausforderung ist, solche Qualitäten zu messen, zeigte eine interne Bewertung, dass Claude 2 doppelt so effektiv darin war, harmlose Antworten zu liefern, verglichen mit seinem Vorgänger, Claude 1.3.
Anthropic gibt zu, dass Claude 2 zwar komplexe Arbeiten analysieren kann, es aber von entscheidender Bedeutung ist, die Grenzen von Sprachmodellen zu erkennen. Die Nutzer sollten Vorsicht walten lassen und sie nicht als faktische Referenzen verwenden. Stattdessen sollte Claude 2 genutzt werden, um Daten von Nutzern zu verarbeiten, die bereits über das Thema informiert sind und die Ergebnisse validieren können.
Wenn Nutzer die Fähigkeiten von Claude 2 nutzen, ist es wichtig, seine Grenzen zu verstehen und es verantwortungsbewusst für Aufgaben einzusetzen, die seinen Stärken entsprechen, wie zum Beispiel die Zusammenfassung und Organisation von Informationen.