piwik no script img

MIT-Professorin Yael Tauman Kalai„In fünf Jahren werden verschlüsselte Nachrichten lesbar sein“

Yael Tauman Kalai hat Grundlagen von Verschlüsselungsmethoden mitentwickelt. Sie zeigt, wie wir trotz KI und Quantencomputern mündig bleiben können.

Illustration: taz

Interview von

Karsten Lemm

Vertrauen ist gut, Beweise sind besser. Mathematische Beweise, die keinen Zweifel lassen: Diese Informationen sind echt. Hier liest niemand mit. Jeder Eintrag in der Datenbank ist authentisch. Nichts würde funktionieren in unserem digitalen Alltag ohne solche Beweise. Onlinebanking, verschlüsselte Textnachrichten, die Steuererklärung im Internet – alles undenkbar.

Mit genau solchen Problemen beschäftigt sich Yael Tauman Kalai. Sie ist Professorin am Massachusetts Institute of Technology (MIT), zählt zu den führenden Köpfen auf dem Gebiet der Kryptografie – der Kunst, Informationen so zu verschlüsseln, dass sie nachweisbar vor den Augen Unbefugter geschützt sind. Einen Namen gemacht hat sie sich vor allem durch ihre Arbeit an Sicherheitszertifikaten, die nur minimalen Rechenaufwand verlangen. Das Prinzip ist wie gemacht für Blockchain-Anwendungen und Kryptowährungen, bei denen jede Transaktion dezentral verifiziert werden muss.

Yael Tauman Kalai konzentriert sich längst auf neue Aufgaben: das Entwickeln von Verschlüsselungsmethoden, die auch im Zeitalter von Quantencomputern sicher sind – denn die Superrechner von morgen bedrohen die bisher gängigste Methode der Kryptografie. Ende August ist Kalai nach Lindau im Bodensee als Gast zum Jahrestreffen der Wirtschaftsnobelpreisträger gereist. Am Rande der Konferenz nimmt sie sich Zeit für ein Gespräch mit der taz.

Bild: MIT – Association For Computing Machinery
Im Interview: Yael Tauman Kalai

geboren in Israel, ist eine vielfach ausgezeichnete Mathematikerin und Professorin am Massachusetts Institute of Technology (MIT). Ihr Spezialgebiet ist die Kryptografie. Schon für ihren Abschluss am Weizmann-Institut für Wissenschaften in Rechovot entwickelte sie 2001 eine neue Art der Verifizierung namens „Ringsignatur“, die heute unter anderem für Kryptowährungen genutzt wird.

taz: Frau Kalai, die meisten Leute mögen kein Mathe. Verstehen Sie das?

Yael Tauman Kalai: Durchaus. Mathematik an sich ist ja sehr trocken. Da fragen sich Menschen schnell: Wozu brauche ich das überhaupt? Was ich an Kryptografie mag, ist, dass es dabei um beinahe philosophische Fragen geht, die aber eine konkrete Anwendung haben. Was bedeutet es, Dinge zu beweisen? Wie kann ich etwas tatsächlich wissen? Wie kann ich Dinge vor anderen verbergen? Das kann ich auch meiner Großmutter leicht erklären. Die versteht sofort, dass es wichtig ist, den Inhalt einer Nachricht vor anderen zu verbergen, wenn niemand mitlesen soll. Und der Weg dahin führt eben über die Mathematik.

taz: Die allerdings sehr komplex ist und für Normalsterbliche kaum zu begreifen.

Kalai: Mich hat Mathe schon von klein auf fasziniert. Einfach die Rätselaufgaben: Warum kommt am Ende diese Zahl heraus, wenn ich die eine mit der anderen multipliziere, dann hier noch etwas abziehe oder dort etwas hinzufüge? Warum funktioniert das überhaupt? Das hat mich begeistert – aber gute Noten hatte ich in Mathe nie.

taz: Wie kann das sein?

Kalai: Weil man in der Schule keine Fehler machen darf. Ich dachte zwar immer, dass ich gut rechnen kann, habe mir aber keine Mühe gegeben, immer alles zu prüfen, damit es korrekt ist. Also gab es Punktabzug.

taz: Trotzdem gehören Sie heute zu den angesehensten Ma­the­ma­ti­ke­r:in­nen der Welt. Sind Sie einfach extrem schlau?

Kalai: Das ist ein wirklich bedauerliches Klischee, dieser Gedanke: Oh, du bist gut in Mathe, dann musst du aber schlau sein! Das ist ja sehr verbreitet, zumindest in westlichen Ländern, und ich frage mich immer: Warum? Wenn jemand künstlerisch begabt ist, sagt niemand: Du kannst aber gut zeichnen – du musst wohl ein Genie sein! Nur bei Mathematik passiert das. Ich glaube, das verunsichert Kinder. Es gibt ihnen den Eindruck, dumm zu sein, wenn sie im Rechnen nicht zu den Besten gehören. Also bekommen sie Angst und wollen noch weniger mit Mathematik zu tun haben. Mathematik mit Intelligenz gleichzusetzen schadet eher.

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

taz: Wie sieht Ihre Arbeit aus? Wie funktioniert das, was Sie machen?

Kalai: Nehmen Sie ein ganz simples Beispiel für Verschlüsselung: Wir wollen eine Nachricht absichern und tauschen dazu Buchstaben aus, auf eine Weise, die nur wir beide kennen. Aus A wird E, aus B wird F und so weiter. Für andere ergibt das alles keinen Sinn mehr. Jedenfalls nicht bei einzelnen Nachrichten. Wenn ein Angreifer die Möglichkeit hat, sehr viele Nachrichten mitzulesen, kann er Muster erkennen und daraus Rückschlüsse ziehen, wie sich die Texte entschlüsseln lassen. Das ist meine Aufgabe als Kryptografin: immer zu überlegen, wie Angreifer vorgehen könnten, um den Schutz zu knacken. Und natürlich ist das alles viel komplizierter als in unserem Beispiel.

taz: Was macht Ihnen aktuell am meisten Sorgen?

Kalai: Quantencomputer und künstliche Intelligenz.

taz: Fangen wir mit Quantencomputern an: Diese Superrechner sind theoretisch in der Lage, durch schiere Rechenkraft die bisherige gängigste Verschlüsselungsmethode unbrauchbar zu machen. Aber solche Computer sind ja noch längst nicht marktreif.

Kalai: Korrekt: Es gibt bisher keine Quantencomputer, die in der Lage sind, unsere heute üblichen Verschlüsselungsmethoden zu knacken. Aber das könnte schon in fünf Jahren anders aussehen – und das bedeutet: Nachrichten, die wir heute verschicken, ließen sich dann rückwirkend entschlüsseln. Man müsste sie nur bis dahin speichern. Deshalb brauchen wir jetzt schon neue kryptografische Methoden, die uns effektiv gegen Angreifer aus der Zukunft schützen.

taz: Gibt es die bereits?

Kalai: Die Risiken, die durch Quantencomputer entstehen, sind seit Langem bekannt. Deshalb dreht sich seit Jahren ein großer Teil der Forschung darum, Verschlüsselungsmethoden zu entwickeln, die selbst Quantencomputern standhalten können. Auch in meiner Arbeit ist das ein Schwerpunkt, und wir sind jetzt an dem Punkt, dass es quantensichere Lösungen für praktisch alle Bereiche der Kryptografie gibt. In den USA hat die Behörde NIST, die technologische Standards setzt, mehrere Verschlüsselungsmethoden für das Zeitalter der Quantenncomputer offiziell zertifiziert. Was allerdings nicht heißt, dass unsere Systeme nun im großen Stil quantensicher gemacht werden.

Illustration: taz

taz: Warum nicht? Sie sagen ja: Eigentlich müsste das dringend passieren.

Kalai: Das Umstellen von der herkömmlichen Verschlüsselung auf eine quantensichere ist nicht leicht. Es geht häufig um große, sehr komplexe Systeme – das macht ein Upgrade zur Herausforderung. Aber auch dafür stehen technische Lösungen bereit. Ob sie implementiert werden, ist eher eine wirtschaftliche Frage. Wir arbeiten auch noch daran, die Kosten für die Umstellung zu senken. Aber viele dieser Lösungen für den Umstieg sind schon jetzt sehr gut und sehr effizient.

Team Zukunft – der Newsletter zu Klima, Wissen, Utopien

Du liest einen Text aus unserem Zukunfts-Ressort. Wenn Du Lust auf mehr positive Perspektiven hast, abonniere TEAM ZUKUNFT, den konstruktiven Newsletter zu Klima, Wissen, Utopien. Jeden Donnerstag bekommst du von uns eine Mail mit starken Gedanken für dich und den Planeten.

taz: Künstliche Intelligenz ist bereits in unserem Alltag angekommen. Was beunruhigt Sie daran?

Kalai: Die Technologie ist noch sehr neu, und die Leute nutzen sie bereits, obwohl KI zahlreiche Risiken mit sich bringt. Die Entwickler kennen die Schwächen ihrer Systeme. Sie wissen, dass Sprachmodelle nicht immer verlässlich sind, dass sie halluzinieren

taz: … also Dinge erfinden und sie als Fakten darstellen.

Kalai: Aber viele Menschen verlassen sich auf diese Systeme. Sie benutzen Chatbots wie ChatGPT oder Gemini, stellen Fragen und glauben einfach den Antworten. Egal, ob sie stimmen. Dabei können falsche Informationen sehr gefährlich sein – zum Beispiel, wenn es um die Gesundheit geht.

taz: Würde es helfen, wenn wir alle mehr über Mathe wüssten, um die Algorithmen besser zu verstehen?

Kalai: Natürlich ist ein Verständnis dafür wichtig. Aber ich würde mir vor allem wünschen, dass in den Unternehmen, die solche KI-Modelle entwickeln, mehr Leute arbeiten, die gut im Umgang mit anderen Menschen sind. People skills, das ist etwas, was vielen in der Technikwelt fehlt. Dabei ist es enorm wichtig, damit die Produkte funktionieren, damit sie uns Menschen dienen. Ich bin immer beeindruckt von Leuten, die sofort mit anderen eine Verbindung aufbauen können, die immer zur richtigen Zeit das richtige Wort finden; die in einen Raum voller fremder Leute kommen und sich nie fehl am Platz fühlen.

taz: Ihnen geht das anders?

Kalai: Mein Team und ich, wir sind eher die Typen, die in der Schule an der Seite standen und ausgelacht wurden. Aber zusammen haben wir Spaß. Wenn ich ins Büro komme, ziehe ich meine Schuhe aus, und wir fangen alle an, Formeln an die Tafel zu kritzeln. Es hat manchmal etwas Manisches, wenn wir wild herumschreien: „Das kann ja gar nicht funktionieren!“ – „Doch! Du verstehst es nur nicht…“ – „O ja?“ – „O nein!“ Am Ende sind wir alle völlig erschöpft, aber es kann hochproduktiv sein.

taz: Wie man an Ihren vielen Auszeichnungen sieht.

Kalai: Die Öffentlichkeit achtet viel zu sehr auf einzelne Namen. Preise sind immer das Ergebnis von Teamarbeit. Deshalb fühlen sich Auszeichnungen immer etwas willkürlich an.

Die Öffentlichkeit achtet zu sehr auf einzelne Namen. Preise sind immer das Ergebnis von Teamarbeit.

taz: Das klingt sehr bescheiden. Der ACM Prize in Computing, den Sie erhalten haben, gilt als eine der höchsten Auszeichnungen der Computerwissenschaft.

Kalai: Als meine Kinder hörten, dass ausgerechnet ich diesen Preis bekommen habe, sagte mein Sohn: „Soll das ein Witz sein?“ Ich habe gefragt, warum, und meine Tochter meinte: „Na, weil du von Programmieren nicht wirklich viel Ahnung hast.“ Das fand ich witzig. Aber es stimmt schon, ich bin ja vor allem Mathematikerin. Code schreiben, das mache ich praktisch nie.

taz: Wie haben Sie Ihren Kindern erklärt, was Sie beruflich machen?

Kalai: Heute sind sie schon älter: 12, 18 und 20 Jahre. Also verstehen sie alle, womit ich mich beschäftige. Die beiden Älteren studieren sogar selber Mathematik und Informatik. Aber in der Grundschule sollte meine Tochter mal aufschreiben, was ihre Eltern beruflich tun, und bei mir stand da: „Sie arbeitet als Barista im Café.“

taz: Wie kam Ihre Tochter darauf?

Kalai: Wahrscheinlich, weil ich gern zum Nachdenken in ein Café gehe. In meinem Büro ist einfach zu viel los. Also setze ich mich in einen Coffee-Shop und lasse mir durch den Kopf gehen, was mich gerade beschäftigt. Meist geht es um Wege, mathematisch einen bestimmten Beweis zu erbringen. Dann grüble ich herum: Okay, wie passen all diese Puzzlestücke zusammen? Manchmal kritzele ich auch auf einem Blatt Papier herum oder mache lange Spaziergänge. Für mich ist das wie Meditieren. Ich bin nie allein. Ich habe immer diese Gedanken im Kopf, die mir Gesellschaft leisten.

taz: In dem Kopf sind auch die Sorgen. KI ist Ihre größte, sagten Sie. Warum?

Kalai: Es gibt vieles, das mich beunruhigt. Datenschutz zum Beispiel: Die Leute vertrauen Chatbots ihre größten Geheimnisse an, fragen sie Dinge, die sie keinem Menschen verraten würden. Was machen die Anbieter mit diesen Informationen? Wie verhindern wir Missbrauch? Wie stellen wir sicher, dass KI-Systeme nicht dazu dienen, Terroristen beim Bau von chemischen oder biologischen Waffen zu helfen? Es gibt etliche solcher Risiken; deshalb sehe ich künstliche Intelligenz als das wichtigste Problem an, mit dem mich die Welt derzeit konfrontiert

taz: Wo sehen Sie dabei Ihre Rolle?

Kalai: Die Fragen zu Wirtschaft und Gesellschaft müssen andere beantworten. Ich versuche nur, dort zu helfen, wo meine Expertise liegt.

taz: Zum Beispiel?

Kalai: Wie verhindern wir etwa, dass eine KI heimlich mit Terroristen kommuniziert und ihnen Tipps gibt, wie sie eine Bombe bauen können? Für solche Fragen gibt es Ansätze aus der Kryptografie, mit denen sich die Risiken verringern lassen. Wir sind es ja gewohnt, in Risiken zu denken. In meiner Forschung gehen wir immer davon aus, dass es einen Gegner gibt, der versucht, unser System anzugreifen. Das ist das Erste, was wir Stu­den­t:in­nen beibringen: „Überlegt euch, wie ein Angreifer vorgehen würde!“ Man erstellt ein Modellbild des Gegners, versucht, seine Ziele zu verstehen, und entwickelt eine Strategie, die verhindert, dass der Angreifer Erfolg hat. Und ich glaube, so müssen wir auch mit künstlicher Intelligenz umgehen: Wir müssen KI als möglichen Gegner sehen und uns schützen.

taz: Das klingt sehr nach der Angst vorm Terminator.

Kalai: Ich sage nicht, dass die Hersteller Böses im Sinn haben. KI als Technologie bringt auch enorm viel positives Potenzial mit sich. Aber wenn ein Chatbot Dinge erfindet, verhält er sich aus meiner Sicht böswillig, denn er gibt mir falsche Antworten. Davor möchte ich Nut­ze­r:in­nen schützen, ihnen klarmachen, dass sie fehlerhafte Informationen von der KI erhalten.

taz: Wie könnte das aussehen?

Kalai: Was ich mir wünsche, ist eine Art Zertifikat, mit dem wir rechnerisch nachweisen können, dass die Antwort, die ein KI-Modell liefert, vertrauenswürdig ist – und bei falschen Antworten gibt es eine Warnung: ein rotes X oder so etwas, damit Menschen wissen, dass die KI halluziniert hat.

taz: Kann das überhaupt funktionieren?

Kalai: Es ist auf jeden Fall ein sehr kniffliges Problem. In meiner Arbeit ging es ja bisher sehr stark darum, Beweise für Korrektheit zu erbringen. Künstliche Intelligenz stellt uns dabei vor ganz neue Herausforderungen, denn oftmals gibt es keine klar definierten Rechenschritte. Da diese Systeme auf Basis von Statistik arbeiten, entstehen viele Unschärfen. Wie verifizieren wir also, dass die KI eine Antwort korrekt berechnet hat? Bei Faktenwissen mag das noch gehen; in anderen Fällen stellt sich die grundsätzliche Frage, was „korrekt“ überhaupt bedeutet. Zum Beispiel, wenn ich einen Chatbot frage, ob ich lieber in Paris oder Peking Urlaub machen sollte.

taz: Fühlen Sie sich von der Entwicklung überrollt?

Kalai: Ich sehe die große Gefahr, dass eigentlich alles zu schnell geht. Die Technologie ist noch ganz jung, wir sind gesellschaftlich nicht bereit für sie und wissen nicht, ob KI wirklich sicher ist. Aber natürlich will kein Unternehmen auf die Bremse treten, weil jeder, der sich zurücknimmt, aus dem Rennen ist. Eigentlich bräuchten wir so etwas Ähnliches wie den Atomwaffensperrvertrag. Unser Ziel müsste sein, dass sich alle Beteiligten weltweit zurücknehmen und ihre Rechenkraft begrenzen. Das würde Tempo herausnehmen und uns Zeit geben, mit den Risiken besser umzugehen.

taz: Ist das realistisch? Wer würde sich an solch einer Aktion beteiligen?

Kalai: Natürlich könnten Unternehmen sagen: „Da machen wir nicht mit.“ Aber dann gäbe es die Möglichkeit, Sanktionen zu verhängen – so, wie wir es auch in anderen Fällen tun. Im Grunde haben wir ja alle dasselbe Ziel: Wir wollen den Nutzen der KI ausschöpfen und zugleich die Risiken minimieren. Ich glaube, selbst die Unternehmen, die natürlich Gewinne machen wollen, würden sagen: „Okay, wenn wir uns alle einigen können, an diesem Punkt aufzuhören, dann hören wir da auf.“ Ich bin gespannt, ob es dazu eine Initiative aus der Politik gibt. Diskutiert wird das sicher nonstop, da bin ich sicher. Die Frage ist nur, was dabei herauskommt.

taz: Warum glauben Sie, dass Unternehmen wie OpenAI bereit wären, sich zurückzunehmen?

Kalai: Ich bin mit vielen Leuten gut befreundet, die in diesen Unternehmen arbeiten: Anthropic, OpenAI, Google und so weiter. Mein Mann ist selbst als Computerwissenschaftler bei OpenAI angestellt. Deshalb kenne ich die Szene sehr gut – und diese Leute haben Angst. Sie machen sich große Sorgen, dass KI nicht sicher ist. Das ist für mich das wirklich Erschreckende: Die Menschen, die sich vor dieser Technologie fürchten, sind die Expertinnen und Experten, die sie entwickeln; die Leute im Silicon Valley selbst. Sie versuchen zwar, KI sicher zu machen – aber es geht einfach alles sehr, sehr schnell.

taz: Die Szenarien, mit denen Sie sich beschäftigen, klingen wirklich beängstigend. Können Sie überhaupt abschalten?

Kalai: Doch, doch. Da habe ich Glück. Es gibt viele Leute auf meinem Gebiet, denen das schwerfällt. Aber wenn ich mit meiner Familie zusammen bin, denke ich keinen Moment an meine Arbeit. Da bin ich auch kein Mensch, der groß auf Sicherheit oder Privatsphäre achtet. Ich schließe nie etwas ab. Die Haustür, das Garagentor, das Auto – alles bleibt offen. Ich mag nicht in Angst leben.

Es gibt viele Leute auf meinem Gebiet, denen es schwerfällt, abzuschalten.

taz: Ausgerechnet die Sicherheitsexpertin zeigt sich so ungeschützt?

Kalai: Ich bin bereit, mit solchen Risiken zu leben – es sei denn, es geht um meine Arbeit. Da dreht sich alles um mathematische Beweise und intellektuelle Neugierde. Aber im Privatleben gehöre ich eher zu den Leuten, die von Passwörtern genervt sind und aus Bequemlichkeit am liebsten „12345“ eingeben würden.

taz: Widerspricht das nicht komplett ihrem Fachwissen?

Kalai: Wissen Sie, privat lebe ich in einer Wohlfühlblase. Denn wenn ich nicht in dieser Blase leben würde, wäre ich wahrscheinlich depressiv. Die Welt da draußen ist ja eher düster. Deshalb setze ich mir meine rosarote Brille auf, wenn ich nach Hause fahre, und tue so, als wäre alles in Ordnung. Ich habe nun mal nur dieses eine Leben, und ich sehe es als meine Aufgabe an, dieses Leben zu genießen und auch anderen Menschen Freude zu bereiten – selbst wenn das komplett im Gegensatz zu dem steht, womit ich mich beruflich beschäftige. Und auch da arbeite ich ja daran, dass Probleme gelöst werden, und nicht, dass neue hinzukommen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare