Wie nutzen Sie Künstliche Intelligenz in Ihrer Forschung – und in welchem fachlichen Kontext?
Künstliche Intelligenz ist für uns eine wichtige Methode, um proteinogene Arzneimittel herzustellen. Unser Labor befindet sich im Institut für Wirkstoffentwicklung an der Medizinischen Fakultät und unser Fokus liegt auf der Charakterisierung und Testung von Immuntherapeutischen Wirkstoffen. Dazu gehören Impfstoffe, Antikörper aber auch Gen- und Zelltherapeutika. Alle diese Wirkstoffe haben gemeinsam, dass die Entwicklung und Herstellung sehr langwierig und teuer ist – unsere Hoffnung ist daher, dass wir diese Wirkstoffe mithilfe von KI schneller und günstiger bereitstellen können.
Eines unserer wichtigsten Projekte zurzeit ist der Aufbau und die aktive Testung einer KI-Pipeline für das Impfstoffdesign. Diese Forschung wird von der Stiftung Coalition for Epidemic Preparedness Innovations (CEPI) mit 5,4 Mio US-Dollar an der Universität Leipzig gefördert. Hier versuchen wir unter Verwendung von KI-Tools aus dem Proteindesign rasch Vorschläge für die experimentelle Testung von Impfstoffkandidaten zu generieren. Dabei fügen wir einzelne Mutationen in das Impfstoffprotein ein, um für eine bessere Stabilität zu sorgen.
Was ermöglicht der Einsatz von KI in Ihrem Projekt, das zuvor nicht oder nur schwer möglich war?
Proteindesign vor der KI-Revolution hat sich vor allem an biophysikalischen Prinzipien orientiert – eine Strategie, die wir auch heute noch verwenden, aber eher zur Unterstützung. Ein großes Problem war damals, dass es nicht besonders gut geklappt hat. Die Wahrscheinlichkeit, dass wir eine stabilisierende Mutation identifiziert haben, war sehr niedrig.
Unser KI-Moment am Institut für Wirkstoffentwicklung war im Jahr 2021, als die Software AlphaFold2 von Google DeepMind der Wissenschaft und der Öffentlichkeit zur Verfügung gestellt wurde. Es ist ein Tool, das Proteinstrukturen aus der Aminosäuresequenz vorhersagt. AlphaFold2 vereint dabei ganz viele Errungenschaften aus der Strukturbiologie und der KI-Entwicklung, und hat innerhalb kürzester Zeit unsere tägliche Arbeit stark verändert. Daraus wurden neue KI-gestützte Proteindesign-Tools entwickelt, auch an der Universität Leipzig. Und für uns am Institut für Wirkstoffentwicklung und vor allem für unseren Humboldt-Professor Jens Meiler wenig verwunderlich, gab es 2024 genau für diese Forschung den Nobelpreis in Chemie.
Welche Herausforderungen oder ethischen Fragen begegnen Ihnen beim Einsatz von KI in der Forschung?
Im Labor sehen wir, dass die Vorschläge, die die KI macht, oft gut funktionieren. Für uns ist es aber wichtig zu verstehen, warum diese Vorschläge generiert worden sind, und wie uns das helfen kann zu verstehen, wie Proteine im Innersten funktionieren. Rigorose, experimentelle Testung der designten Proteine ist daher bei der Wirkstoffentwicklung unerlässlich, um Risiken einzuordnen.
Inzwischen werde ich auch oft gefragt: Wie können wir sicherstellen, dass die KI keine gefährlichen und giftigen Proteine designt? Das ist aus unserer Sicht zwar recht unwahrscheinlich, aber etwas, dass wir uns besser anschauen müssen. Zu erforschen, welche Daten und Proteineigenschaften von den KI-Tools erkannt und verwendet werden, ist ein wichtiger Aspekt für unsere Arbeit, auch in der Zukunft.
Welche Erfahrungen möchten Sie mit anderen Forschenden teilen, die überlegen, KI in ihrer Arbeit einzusetzen?
Für uns hat die Arbeit mit KI vieles sehr viel einfacher und schneller gemacht. Was ich allerdings jedem empfehlen würde, ist kritisch zu hinterfragen, ob man eine KI-Anwendung braucht und wie gut die KI wirklich Lösungen zu einem konkreten Problem bietet. Bei einigen Anwendungen ist es überhaupt nicht gegeben, dass KI besser ist. Wir haben diese Erfahrung im Bereich Wirkstoffentwicklung oft mit niedermolekularen Verbindungen – dort ist die Erfolgsrate für KI-Methoden überschätzt. Deswegen ist es wichtig zu wissen, welche Methode ich für welches wissenschaftliche Problem benutze, und dass ich mir der Stärken und Schwächen auch sehr bewusst bin.
Wo sehen Sie Chancen und Nutzen, wo Schattenseiten und Risiken?
Ich persönlich sehe sehr viele Chancen in der Wirkstoffentwicklung, vor allem für die Gen- und Zelltherapie. Fragestellungen, die vorher oft lange, wiederholende experimentelle Untersuchungen verlangt haben, können wir heute direkt bearbeiten. Das wird es hoffentlich erlauben, Wirkstoffe für kleine Patientengruppen schneller und günstiger bereitzustellen. Auch in der grünen Chemie und für die Materialwissenschaften könnte Proteindesign sehr spannend werden.
Es gibt aber auch noch viele Herausforderungen, Proteine zu designen, die komplexe Funktionen aufweisen und dynamische Prozesse orchestrieren. Auch wenn wir Proteine im Zusammenspiel mit niedermolekularen Verbindungen, DNA und RNA modifizieren wollen, wird es noch viel Arbeit brauchen. Um Risiken besser einschätzen zu können, werden wir besser verstehen müssen, wie diese Algorithmen funktionieren.
Gab es in Ihrem Projekt einen Moment, in dem Sie durch den KI-Einsatz besonders überrascht wurden?
Auf jeden Fall. Und auch immer wieder. Gerade als wir angefangen haben mit diesen neuen Methoden herumzuexperimentieren, waren wir oft überrascht, wie zuverlässig die Proteine, die wir designten, sich exprimieren ließen. Ich erinnere mich, als wir das erste Mal kleine de novo Proteine designt haben, die Oberflächenproteine von Viren binden, haben wir für zehn Proteine die Gene bestellt und dann konnten wir sie alle herstellen. Das war schon verrückt. Beeindruckend ist auch immer wieder, wie stabil diese Proteine sind. Einige davon kann man kochen und sie behalten einfach ihre Struktur. Inzwischen machen regelmäßig Diplom- oder Masterstudierende eigene de novo Proteine, weil die Methoden nicht schwer zu lernen sind.
Kommentare
Keine Kommentare gefunden!