Generative KI ist ein sich rasch entwickelndes Ökosystem, dem viel Aufmerksamkeit zuteilwird. In dieser Folge befragt Dormain Drewitz Sriram Subramanian zu den wichtigsten Herausforderungen bei der verantwortungsvollen Implementierung generativer KI, einschließlich schädlicher oder ungenauer Inhalte oder Inhalte, die Datenschutz- oder Sicherheitsstandards verletzen. Sriram erörtert Microsofts sechs Grundsätze für eine verantwortungsvolle generative KI sowie das Konzept der gemeinsamen Verantwortung zwischen Plattformanbietern und grundlegenden LLMs sowie den darauf aufbauenden Entwicklern und Dateningenieuren. Sriram beantwortet auch Fragen dazu, wie man sicher mit generativer KI beginnen kann, und teilt sein Framework zur Identifizierung von Möglichkeiten zur Wertschöpfung.
Erwähnte Ressourcen:
Artikel von Marc Andreesen
Zusammenfassung erstellt mit Hilfe von chatGPT
In dieser Folge der Unplanned Show interviewt der Moderator Sriram Subramanian von Microsoft über verantwortungsvolle generative KI und geht dabei sowohl auf ethische als auch praktische Aspekte ein. Sriram, Principal Program Manager bei Microsoft, betont die zunehmenden Bedenken hinsichtlich der Leistungsfähigkeit generativer KI-Funktionen und geht insbesondere auf Probleme im Zusammenhang mit schädlichen Inhalten, Ungenauigkeiten und Sicherheits-/Datenschutzproblemen ein. Er hebt das Potenzial für voreingenommene und unangemessene Inhaltsgenerierung hervor und fordert Entwickler und Organisationen auf, wachsam zu sein. Organisationen können vor Herausforderungen stehen, wenn sie generative KI in ihre Arbeitsabläufe integrieren. Zu den einprägsamen Zitaten gehört Srirams Analogie von großen Sprachmodellen, die sich wie selbstbewusste Teenager verhalten, wenn sie Inhalte ohne umfassendes Wissen generieren.
„LLMs sind wie Teenager an der High School, die, wenn sie den Inhalt nicht kennen, die Kühnheit und den Mut haben, etwas mit größter Zuversicht zu schreiben, als ob es Tatsachen wären. Mit generativer KI ist das durchaus möglich.“
Als nächstes gehen der Moderator und Sriram der Frage nach, ob Herausforderungen im Zusammenhang mit schädlichen Inhalten, Ungenauigkeiten und Sicherheit/Datenschutz in generativer KI innerhalb der großen Sprachmodelle (LLMs) selbst gelöst werden können oder externe Kontrollen und Ausgleiche erfordern. Sriram betont die zentralen Verantwortungsprinzipien von Microsoft, die sich um Fairness, Transparenz, Rechenschaftspflicht, Inklusivität, Datenschutz, Zuverlässigkeit und Sicherheit drehen. Er skizziert den von der Branche empfohlenen Ansatz, der Governance, Regeln, Schulungen und Tools zur Durchsetzung verantwortungsvoller KI-Praktiken umfasst. Sriram sieht parallele Entwicklungen in der Branche, wobei LLMs verantwortungsvolle KI-Praktiken von Natur aus verbessern, während Unternehmen daran arbeiten, diese Fähigkeiten für Endbenutzer unsichtbarer zu machen. Er betont die Bedeutung einer gemeinsamen Verantwortung, bei der sowohl Anbieter als auch Anwendungsentwickler/-verbraucher eine Rolle bei der Gewährleistung der Sicherheit, Zuverlässigkeit und Vorurteilsfreiheit von generativen KI-Anwendungen spielen.
„Letztendlich wird es eine gemeinsame Verantwortung sein. Ein Anwendungsentwickler – ein Endverbraucher – sollte ebenfalls seinen Teil zur Gewährleistung von Sicherheit und Datenschutz beitragen. Stellen Sie sicher, dass alles, was Sie für Anwendungen verwenden möchten, den Best Practices entspricht, wenn Sie Anwendungen entwickeln.“
Anschließend liegt der Fokus auf dem Konzept, das Richtige einfach zu machen, und der gemeinsamen Verantwortung bei der Bewältigung von Herausforderungen innerhalb der generativen KI. Die Diskussion dreht sich um die Schichten, die an der Gewährleistung einer verantwortungsvollen KI beteiligt sind, wobei das grundlegende Modell im Mittelpunkt steht, gefolgt von Sicherheitssystemen, Anwendungsentwicklung und Benutzererfahrung. Der Moderator weist auf die Parallele zu Fragen der Plattformtechnik in DevOps hin und auf die Bedeutung, den Prozess nachhaltig zu gestalten, um zuverlässigen, sicheren und geschützten Code zu erstellen. Sriram ergänzt die Diskussion, indem er die vier Schichten umreißt und betont, dass Sicherheitssysteme des grundlegenden Modells zwar in erster Linie in der Verantwortung von Anbietern und Plattformen liegen, Anwendungsentwickler jedoch auch eine Rolle beim Hinzufügen von Sicherheitsmechanismen spielen. Die kontinuierliche und iterative Natur des Prozesses entspricht den Praktiken von DevOps. Es besteht auch die Notwendigkeit, auf gelegentliche Störungen in der komplexen Architektur der generativen KI vorbereitet zu sein.
„Es ist eher ein Kreislauf aus Identifizieren, Messen, Mildern und Handeln. Sobald Sie das Problem identifiziert haben, setzen Sie Systeme ein, messen das und setzen es dann fort. Es wird nie nur eine einmalige Anstrengung sein; es wird ein kontinuierlicher Prozess sein.“
Die Diskussion umfasst praktische Empfehlungen für Einzelpersonen oder Unternehmen, die mit generativer KI beginnen. Sriram betont einen schrittweisen Ansatz, der mit einfachen Erfolgen beginnt, bei denen keine sensiblen Daten eingeführt werden müssen, wie z. B. die Verwendung grundlegender Modelle zum Generieren von Benutzerdokumenten oder Chat-Antworten. Er skizziert drei Implementierungsebenen: Die erste umfasst einfache Anwendungsfälle, die zweite die Einbeziehung von KI als Code-Copilot und die dritte Ebene die Einführung benutzerdefinierter Daten für genauere und relevantere Ergebnisse. Das Gespräch berührt auch die Bedeutung verantwortungsvoller Praktiken, einschließlich der Verfeinerung von Eingabeaufforderungen für bessere Ergebnisse, der Nutzung von Zero-Context-, Zero-One- oder Multi-Context-Lernen und der Implementierung von Inhaltsmoderation und Ratenbegrenzung, um eine ethische Nutzung sicherzustellen. Sriram betont die Notwendigkeit einer verantwortungsvollen Denkweise und empfiehlt Benutzern, generierte Inhalte nicht so zu nehmen, wie sie sind, und immer Filter oder Inhaltsmoderation anzuwenden.
„Derzeit ist das Verständnis oder der Denkprozess rund um das Kontextlernen nützlicher und genauer. Zumindest ist es ein viel einfacherer Weg, das erforderliche Genauigkeitsniveau zu erreichen, als zu versuchen, das Modell durch Feinabstimmung neu zu trainieren.“
Im Fazit des Interviews umreißt Sriram drei Schlüsseldimensionen – Grundlage, Form und Passung – bei der Betrachtung von Möglichkeiten im Bereich der generativen KI. Er schlägt vor, dass Differenzierung durch Innovationen auf algorithmischer Ebene (Grundlage), die Einführung neuer Benutzererfahrungen (Form) oder die Spezialisierung auf bestimmte Domänen oder Sprachen (Passung) erfolgen kann. Die Diskussion betont, wie wichtig es ist, diese Achsen für Startups oder Unternehmen zu verstehen, die generative KI effektiv nutzen möchten.
„Wenn Sie versuchen, ein Startup aufzubauen, oder wenn jemand versucht, mithilfe generativer KI zu entscheiden, ‚wie ich mich von der Masse abhebe, was wir bauen‘, verwende ich gerne ein Modell aus Grundlage, Form und Passform.“
Sehen Sie sich das Interview an
„Die PagerDuty Operations Cloud ist für TUI von entscheidender Bedeutung. Sie wird uns tatsächlich dabei helfen, als Unternehmen zu wachsen und sicherzustellen, dass wir unseren Kunden qualitativ hochwertige Dienstleistungen bieten.“
- Yasin Quareshy, Technologiechef bei TUI