Dr. Elisa Weber, Expertin für computationale Architektur

Dr. Elisa Weber

Leiterin Computational Design, Zaha Hadid Architects Berlin

"Generative Algorithmen sind nicht einfach nur Werkzeuge – sie sind Designpartner, die unsere kreativen Prozesse grundlegend transformieren und uns helfen, Lösungen zu finden, die wir allein möglicherweise nie entdeckt hätten."
Vollständiges Interview lesen
Prof. Markus Bauer, Spezialist für urbane Systeme

Prof. Markus Bauer

Lehrstuhl für Computational Urban Systems, TU München

"Die wahre Revolution liegt nicht in der Optimierung einzelner Gebäude, sondern in der systemischen Betrachtung ganzer Stadtquartiere durch KI. So können wir urbane Resilienz auf einer völlig neuen Ebene entwickeln."
Vollständiges Interview lesen
Lisa Müller, Innovatorin im Bereich generativer Nachhaltigkeitsalgorithmen

Lisa Müller

Gründerin & CEO, Parametric Sustainability Lab, Berlin

"Wir stehen erst am Anfang dessen, was generative KI für nachhaltige Architektur leisten kann. Die Integration von Lebenszyklus-Daten in Designalgorithmen wird die Art und Weise, wie wir bauen, grundlegend verändern."
Vollständiges Interview lesen

Dr. Elisa Weber

Leiterin Computational Design, Zaha Hadid Architects Berlin

Dr. Elisa Weber, Expertin für computationale Architektur

Über Dr. Elisa Weber

Dr. Elisa Weber ist eine führende Expertin im Bereich des Computational Designs und der generativen Architektur. Nach ihrem Architekturstudium an der ETH Zürich promovierte sie an der TU Berlin zum Thema "Evolutionäre Algorithmen in der parametrischen Architektur". Seit 2023 leitet sie die Computational Design Abteilung bei Zaha Hadid Architects in Berlin und ist verantwortlich für die Integration von KI-gestützten Designprozessen in internationale Großprojekte. Ihre Arbeit an der Schnittstelle zwischen Architektur, Mathematik und Informatik wurde mehrfach ausgezeichnet, unter anderem mit dem Deutschen Innovationspreis für Nachhaltige Architektur 2024.

Modenauatelier: Frau Dr. Weber, Sie arbeiten seit mehr als einem Jahrzehnt mit parametrischen und generativen Designmethoden. Wie haben sich diese Ansätze in den letzten Jahren verändert?

Dr. Elisa Weber: Die Entwicklung ist beeindruckend. Als ich anfing, waren parametrische Methoden hauptsächlich formale Werkzeuge – wir haben komplexe Geometrien erzeugt, die interessant aussahen, aber nicht unbedingt performativ optimiert waren. Heute arbeiten wir mit multikriteriellen Optimierungsalgorithmen, die gleichzeitig strukturelle Effizienz, Energieverbrauch, Materialeinsatz, Tageslichtqualität und Herstellbarkeit berücksichtigen können.

Der größte Wandel kam mit der Integration von Machine Learning in den letzten drei Jahren. Früher mussten wir jedes Performancekriterium explizit definieren und berechnen – ein rechenintensiver Prozess. Heute trainieren wir neuronale Netze, die die Performance tausender Designvarianten in Sekundenbruchteilen vorhersagen können, was die Exploration des Lösungsraums drastisch beschleunigt hat.

Außerdem hat sich der Fokus verschoben: Weg von der Erzeugung spektakulärer Formen hin zu Designs, die messbar besser in Bezug auf Ressourceneffizienz, Klimaanpassung und Nutzererfahrung sind. Generative Design ist erwachsen geworden – es geht nicht mehr um das "Wie können wir?", sondern um das "Wie sollten wir?".

Modenauatelier: Können Sie uns ein konkretes Beispiel für ein Projekt geben, bei dem generative Methoden zu signifikanten Verbesserungen geführt haben?

Dr. Elisa Weber: Ein gutes Beispiel ist unser Projekt für den neuen Hauptcampus der Technischen Universität Dresden. Die Herausforderung bestand darin, ein komplexes Raumprogramm mit Forschungslaboren, Hörsälen und flexiblen Kollaborationszonen auf einem schwierigen Grundstück zu realisieren, mit extrem hohen Anforderungen an Energieeffizienz und Adaptierbarkeit.

Wir entwickelten einen generativen Algorithmus, der über 5.000 Gebäudekonfigurationen erzeugte und diese auf Basis von 12 Performancekriterien optimierte – von der Energieeffizienz über die Tageslichtversorgung bis hin zur Flexibilität für zukünftige Umnutzungen. Das System berücksichtigte auch die Herstellungskosten und CO₂-Bilanz verschiedener Konstruktionsmethoden.

Das Ergebnis war beeindruckend: Im Vergleich zum initialen Konzept konnten wir den prognostizierten Energieverbrauch um 37% senken, die Baukosten um 18% reduzieren und die CO₂-Emissionen über den Lebenszyklus um fast 42% verringern. Gleichzeitig verbesserte sich die Tageslichtversorgung in den Arbeits- und Lernbereichen signifikant.

Besonders wichtig: Diese Verbesserungen waren nicht das Ergebnis von Kompromissen bei der architektonischen Qualität oder Funktionalität. Im Gegenteil – der Algorithmus half uns, Designlösungen zu entdecken, die alle Anforderungen besser erfüllten als unsere ersten manuellen Entwürfe.

Modenauatelier: Wo sehen Sie die größten praktischen Herausforderungen bei der Integration generativer Designmethoden in Architekturbüros?

Dr. Elisa Weber: Die Herausforderungen sind vielschichtig. Zunächst gibt es die technische Hürde – die Implementierung solcher Methoden erfordert spezifisches Know-how an der Schnittstelle zwischen Programmierung, Datenanalyse und Architektur. Diese Kombination ist noch selten, und die Ausbildung hinkt der Praxis hinterher.

Dann haben wir die organisatorische Herausforderung: Generative Design verändert den gesamten Arbeitsprozess. Es erfordert eine Front-Loading des Designprozesses – mehr Aufwand in frühen Phasen, dafür effizientere spätere Phasen. Das passt oft nicht zu traditionellen Planungsphasen und Honorarstrukturen.

Eine weitere Hürde ist die Integration in bestehende BIM-Workflows. Die Übersetzung generativ erzeugter Designs in produktionsreife BIM-Modelle ist noch immer komplex. Hier arbeiten wir intensiv an verbesserten Schnittstellen.

Aber die vielleicht größte Herausforderung ist kultureller Natur: Viele Architekten sehen generative Methoden noch immer als Bedrohung ihrer kreativen Autonomie statt als leistungsfähiges Werkzeug. Es erfordert ein Umdenken – weg vom Architekt als alleiniger Autor, hin zum Architekt als Kurator von Designoptionen und Definierer von Optimierungszielen.

Modenauatelier: Wie sehen Sie die Rolle des Architekten in einer Zukunft, in der KI und generative Algorithmen immer leistungsfähiger werden?

Dr. Elisa Weber: Ich sehe die Zukunft des Architekten nicht als Opfer der Automatisierung, sondern als Dirigent eines komplexen Orchesters aus KI-Werkzeugen, Simulationen und generativen Prozessen. Die kreative Kernkompetenz des Architekten – die Fähigkeit, kulturelle, soziale und ästhetische Anforderungen zu verstehen und in physische Form zu übersetzen – wird nicht ersetzt, sondern erweitert.

Die wichtigste Aufgabe des Architekten wird es sein, die richtigen Fragen zu stellen, nicht die Antworten manuell zu erzeugen. Was soll dieses Gebäude leisten? Welche Erfahrung soll es vermitteln? Welche ökologischen Parameter sind kritisch? Diese Fragen in maschinenlesbare Ziele und Constraints zu übersetzen, wird zu einer Kernkompetenz.

Gleichzeitig werden Architekten viel mehr zu Interpretatoren von Daten. Die Fähigkeit, aus der Flut von Optionen, die generative Systeme erzeugen, die richtige Lösung auszuwählen, sie zu verfeinern und an menschliche Bedürfnisse anzupassen – das wird entscheidend sein.

Ich sehe auch eine verstärkte Rolle des Architekten als Vermittler zwischen verschiedenen Stakeholdern und als Übersetzer zwischen menschlichen Bedürfnissen und technologischen Möglichkeiten. Diese Schnittstelle zwischen Mensch und Maschine zu gestalten – das ist die eigentliche Zukunft des Berufs.

Modenauatelier: Welche Trends in der generativen Architektur sehen Sie für die kommenden Jahre?

Dr. Elisa Weber: Ich sehe mehrere spannende Entwicklungen. Erstens wird die Integration von KI in generative Prozesse die Art, wie wir Gebäude konzipieren, fundamental verändern. Wir entwickeln bereits Systeme, die aus tausenden existierenden Gebäuden lernen, um neue Designs vorzuschlagen, die sowohl funktional als auch ästhetisch überzeugen.

Zweitens wird die Verbindung zwischen generativem Design und digitaler Fabrikation enger. Wir nähern uns dem Punkt, an dem Algorithmen nicht nur Formen optimieren, sondern direkt herstellungsoptimierte Lösungen erzeugen, die nahtlos in robotische Fertigungsprozesse überführt werden können.

Ein dritter Trend ist die Integration von Nutzerdaten und -verhalten in Echtzeit. Stellen Sie sich Gebäude vor, die nicht nur passiv sind, sondern aktiv lernen und sich anpassen – sowohl während der Planungsphase durch Simulation als auch im Betrieb durch kontinuierliche Datenerfassung.

Außerdem sehe ich einen starken Trend zur Demokratisierung generativer Werkzeuge. Was heute noch Spezialwissen erfordert, wird in einigen Jahren durch intuitive Schnittstellen zugänglich sein. Das wird die Kreativität im Feld explodieren lassen.

Und nicht zuletzt: Die Verbindung von generativem Design mit Kreislaufwirtschaft wird entscheidend. Algorithmen, die nicht nur für die erste Nutzung optimieren, sondern den gesamten Lebenszyklus bis zur Wiederverwertung berücksichtigen – das wird der nächste große Schritt sein.

Projekte unter der Leitung von Dr. Weber

TU Dresden Campus - Generativ optimiertes Hochschulgebäude

TU Dresden Campus

Energieoptimiertes Forschungs- und Lehrgebäude mit adaptiver Fassade

Parametrisch optimierte Bürofassade in Berlin

Media Hub Berlin

Medienzentrumskomplex mit generativ optimierter Akustik und Lichtsituation

Kernaussagen des Interviews

  • Generative Design hat sich von einem formalen Werkzeug zu einem umfassenden Optimierungsprozess für multiple Performancekriterien entwickelt
  • Machine Learning beschleunigt die Exploration des Lösungsraums durch schnelle Performanzvorhersagen
  • Praxisbeispiele zeigen Effizienzsteigerungen von 30-40% in Energie, Kosten und CO₂-Emissionen
  • Hauptherausforderungen sind technisches Know-how, organisatorische Anpassung und kultureller Wandel
  • Die zukünftige Rolle des Architekten liegt im Definieren der richtigen Parameter und im Kuratieren generativer Lösungen
  • Kommende Trends: KI-Integration, nahtlose digitale Fabrikation, adaptive Gebäude, Demokratisierung von Werkzeugen

Prof. Markus Bauer

Lehrstuhl für Computational Urban Systems, TU München

Prof. Markus Bauer, Spezialist für urbane Systeme

Über Prof. Markus Bauer

Prof. Dr.-Ing. Markus Bauer ist einer der führenden deutschen Experten für computergestützte Stadtplanung und urbane Systemanalyse. Nach seinem Studium der Architektur und Informatik an der RWTH Aachen promovierte er mit einer Arbeit über "Komplexitätstheorie und emergente Stadtstrukturen". Seit 2020 leitet er den neu geschaffenen Lehrstuhl für Computational Urban Systems an der TU München. Seine Forschung konzentriert sich auf die Anwendung von KI-Methoden und generativen Algorithmen zur Bewältigung komplexer urbaner Herausforderungen wie Klimaresilienz, soziale Inklusion und nachhaltige Mobilität. Bauer ist Mitglied der Deutschen Akademie für Städtebau und Landesplanung und berät mehrere deutsche Großstädte bei der datengestützten Stadtentwicklung.

Modenauatelier: Herr Prof. Bauer, Ihr Forschungsschwerpunkt liegt auf der Anwendung generativer Designmethoden im urbanen Maßstab. Was unterscheidet diese Anwendung von der gebäudebezogenen Nutzung?

Prof. Bauer: Der entscheidende Unterschied liegt in der Komplexität der Systeme und ihrer Interaktionen. Bei Gebäuden haben wir ein relativ klar definiertes System mit bekannten physikalischen Gesetzen – Statik, Thermodynamik, Akustik. Im urbanen Kontext fügen wir soziale, ökonomische und ökologische Systeme hinzu, die sich gegenseitig beeinflussen und oft emergente Eigenschaften aufweisen.

Ein weiterer fundamentaler Unterschied: In der Stadtplanung arbeiten wir fast immer mit unvollständigen Informationen. Die Datenlage zu urbanen Systemen ist oft fragmentiert, unsicher und dynamisch. Deshalb müssen unsere generativen Modelle mit dieser Ungewissheit umgehen können – sie müssen robust sein gegenüber Datenlücken und sich verändernden Rahmenbedingungen.

Außerdem ist der Zeitfaktor entscheidend. Während ein Gebäude innerhalb weniger Jahre geplant und gebaut wird, entwickeln sich städtische Strukturen über Jahrzehnte. Unsere Modelle müssen daher langfristige Entwicklungspfade simulieren, die auch sozioökonomische Veränderungen berücksichtigen.

Nicht zuletzt gibt es im urbanen Kontext deutlich mehr Akteure mit teils widersprüchlichen Interessen. Generative Stadtplanung muss daher Mechanismen für Partizipation und kollektive Entscheidungsfindung integrieren – etwas, das im Gebäudekontext weniger komplex ist.

Modenauatelier: Welche Rolle spielen Daten in Ihren Stadtanalyse- und Optimierungsmodellen, und wie gehen Sie mit der Qualität und Verfügbarkeit urbaner Daten um?

Prof. Bauer: Daten sind das Fundament unserer Arbeit, aber gleichzeitig oft die größte Herausforderung. Wir nutzen eine breite Palette an Datenquellen: von klassischen städtischen GIS-Daten über Satelliten- und Drohnenaufnahmen bis hin zu Sensornetzwerken und anonymisierten Mobilfunkdaten für Bewegungsanalysen.

Die Qualitätssicherung ist dabei ein kontinuierlicher Prozess. Wir haben Methoden entwickelt, um Datenlücken durch statistische Modelle und Transferlernen zu überbrücken. Wenn beispielsweise für eine bestimmte Stadt keine detaillierten Mikroklimadaten vorliegen, können wir aus vergleichbaren Städten lernen und Modelle übertragen.

Ein entscheidender Fortschritt der letzten Jahre ist die Fähigkeit unserer Algorithmen, mit heterogenen Datenquellen unterschiedlicher Qualität umzugehen. Moderne Machine-Learning-Verfahren können Unsicherheiten in den Eingangsdaten explizit modellieren und in die Entscheidungsfindung einbeziehen.

Was die Verfügbarkeit betrifft, sehen wir große Unterschiede zwischen Städten. Während einige deutsche Großstädte wie Hamburg oder München bereits umfassende digitale Zwillinge entwickeln, arbeiten kleinere Kommunen oft noch mit fragmentierten Datensätzen. Hier setzen wir auf skalierbare Lösungen, die auch mit begrenzten Daten funktionieren und schrittweise erweitert werden können.

Ein wichtiger Punkt ist noch die Balance zwischen Datennutzung und Datenschutz. Wir entwickeln Methoden des "Privacy-Preserving Urban Computing", die sensitive Daten durch Aggregation, Differential Privacy und föderiertes Lernen schützen.

Modenauatelier: Können Sie ein konkretes Beispiel für ein erfolgreiches Projekt nennen, bei dem generative Methoden urbane Herausforderungen gelöst haben?

Prof. Bauer: Ein sehr gutes Beispiel ist unser "ResilientQuarter"-Projekt in Dresden Friedrichstadt. Dieses historische Quartier wurde 2021 von einem massiven Hochwasser der Elbe betroffen und stand vor der Herausforderung, sowohl klimaresilienter zu werden als auch seine historische Struktur zu bewahren.

Wir haben einen generativen Algorithmus entwickelt, der multiple urbane Systeme integriert: Hydrologie für Überflutungssimulationen, Mikroklimamodelle für Hitzestress, urbane Mobilität und soziale Infrastruktur. Der Algorithmus erzeugte tausende Varianten von Quartiersanpassungen, die nach ihrer Performance bezüglich Überflutungsschutz, Hitzereduktion, Erhalt historischer Substanz und sozialer Kohärenz bewertet wurden.

Die ausgewählte Lösung umfasste ein komplexes System von "multifunktionalen blauen und grünen Infrastrukturen" – Flächen, die bei Normalwetter als Parks und Plätze dienen, bei Starkregen jedoch kontrolliert geflutet werden können. Diese wurden algorithmisch optimiert, um den maximalen hydraulischen Effekt bei minimaler baulicher Intervention zu erzielen.

Das Besondere war die Integration historischer Stadtstrukturen in den generativen Prozess. Der Algorithmus identifizierte denkmalgeschützte Gebäude und historische Sichtachsen als Constraints und entwickelte Lösungen, die diese Werte erhielten, während die Klimaresilienz maximiert wurde.

Die Ergebnisse sind beeindruckend: Die implementierten Maßnahmen reduzierten das Überflutungsrisiko bei einem hundertjährlichen Hochwasser um 85%, senkten die sommerliche Durchschnittstemperatur um 2,7°C und erhöhten die Nutzungsdichte des öffentlichen Raums um 46% – alles bei Erhalt der historischen Stadtstruktur. Das Projekt wurde 2024 mit dem Deutschen Städtebaupreis ausgezeichnet.

Modenauatelier: Wie sieht Ihrer Meinung nach die Zukunft der KI-gestützten Stadtplanung aus, besonders im Kontext der deutschen Planungskultur?

Prof. Bauer: Die deutsche Planungskultur mit ihrer Gründlichkeit und ihrem mehrstufigen Beteiligungsverfahren bietet sowohl Herausforderungen als auch Chancen für KI-gestützte Ansätze. Ich sehe mehrere Entwicklungslinien:

Erstens wird KI zunehmend als Entscheidungsunterstützung, nicht als Ersatz für demokratische Planungsprozesse eingesetzt. Wir entwickeln Systeme, die Planungsalternativen generieren und deren Konsequenzen visualisieren, aber die finale Entscheidung bleibt beim Menschen – bei gewählten Vertretern und der Zivilgesellschaft.

Zweitens sehe ich einen Wandel von statischen zu dynamischen Planungsinstrumenten. Klassische Flächennutzungs- und Bebauungspläne werden durch adaptive Systeme ergänzt, die kontinuierlich Daten auswerten und Anpassungen vorschlagen können. Diese "Living Master Plans" reagieren auf sich verändernde Bedingungen und Nutzerbedürfnisse.

Ein dritter Trend ist die Integration von Echtzeitdaten und Simulationen. Statt Planungen auf historischen Daten zu basieren, werden wir zunehmend aktuelle Daten aus Sensornetzwerken, Mobilität und sozialen Interaktionen in Entscheidungsprozesse einbeziehen.

Besonders spannend finde ich das Potenzial für neue Formen der Bürgerbeteiligung. KI-Systeme können komplexe Planungsszenarien verständlich visualisieren und die Auswirkungen verschiedener Entscheidungen unmittelbar erlebbar machen. Das demokratisiert Stadtplanung und macht sie inklusiver.

Für die deutsche Planungskultur bedeutet dies einen Paradigmenwechsel: von der regulatorischen Kontrolle hin zu einer kollaborativen Steuerung komplexer urbaner Systeme. KI wird dabei helfen, den Raum möglicher Zukünfte zu explorieren und evidenzbasierte Entscheidungen zu treffen, ohne die sozialen und kulturellen Werte aus dem Blick zu verlieren, die deutsche Städte prägen.

Modenauatelier: Welche praktischen Empfehlungen haben Sie für Stadtplaner und Kommunen, die generative und KI-gestützte Methoden in ihre Arbeit integrieren möchten?

Prof. Bauer: Meine erste Empfehlung ist: Starten Sie klein, aber strategisch. Beginnen Sie mit einem klar definierten Problem, für das Sie bereits Daten haben – sei es Verkehrsoptimierung, Mikroklima-Analyse oder soziale Infrastrukturplanung. Erzielen Sie dort messbare Erfolge, bevor Sie komplexere integrierte Systeme angehen.

Zweitens: Investieren Sie in Datengrundlagen und -governance. Entwickeln Sie eine kommunale Datenstrategie, die festlegt, welche Daten Sie wie erfassen, speichern und teilen. Etablieren Sie Standards für Datenformate und -qualität. Ohne solide Datengrundlagen sind die ausgeklügeltsten Algorithmen wertlos.

Drittens: Bauen Sie interdisziplinäre Teams auf. KI-gestützte Stadtplanung erfordert eine Kombination aus Domänenwissen (Stadtplanung, Architektur, Verkehr) und technischen Kompetenzen (Datenanalyse, Programmierung). Fördern Sie den Dialog zwischen diesen Disziplinen und schaffen Sie eine gemeinsame Sprache.

Viertens: Denken Sie in Ökosystemen, nicht in einzelnen Tools. Generative Stadtplanung funktioniert am besten, wenn sie in bestehende Planungsprozesse und -werkzeuge integriert wird. Entwickeln Sie modulare Systeme, die mit Ihren GIS-, BIM- und Verwaltungssystemen zusammenarbeiten.

Fünftens: Schaffen Sie Transparenz und Beteiligung. Kommunizieren Sie klar, wie KI-Systeme in Entscheidungsprozesse eingebunden sind, welche Daten sie nutzen und wo ihre Grenzen liegen. Entwickeln Sie Formate, die Bürgern ermöglichen, mit den Systemen zu interagieren und Feedback zu geben.

Und nicht zuletzt: Kollaborieren Sie mit anderen Kommunen und Forschungseinrichtungen. Viele deutsche Städte stehen vor ähnlichen Herausforderungen. Durch den Austausch von Daten, Modellen und Best Practices können wir gemeinsam schneller vorankommen und Ressourcen effizienter einsetzen.

Projekte unter der Leitung von Prof. Bauer

ResilientQuarter Dresden - Generativ optimierte Stadtteilplanung

ResilientQuarter Dresden

Klimaresilienter Stadtumbau mit Integration historischer Strukturen

Smart Mobility München - Generative Verkehrsplanung

Smart Mobility München

KI-gestützte Optimierung multimodaler Verkehrssysteme

Kernaussagen des Interviews

  • Urbane Systeme sind komplexer als Gebäude und erfordern Modelle, die mit Ungewissheit, langen Zeiträumen und vielen Akteuren umgehen können
  • Datenqualität und -verfügbarkeit sind zentrale Herausforderungen; moderne Algorithmen können mit heterogenen Datenquellen und Unsicherheiten umgehen
  • Das ResilientQuarter-Projekt zeigt, wie generative Algorithmen Klimaresilienz, historischen Erhalt und soziale Faktoren integrieren können
  • Die Zukunft liegt in adaptiven "Living Master Plans", die kontinuierlich Daten auswerten und auf Veränderungen reagieren
  • KI wird demokratische Planungsprozesse unterstützen, nicht ersetzen, und neue Formen der Bürgerbeteiligung ermöglichen
  • Kommunen sollten klein beginnen, in Datengrundlagen investieren, interdisziplinäre Teams aufbauen und transparent kommunizieren

Lisa Müller

Gründerin & CEO, Parametric Sustainability Lab, Berlin

Lisa Müller, Innovatorin im Bereich generativer Nachhaltigkeitsalgorithmen

Über Lisa Müller

Lisa Müller ist eine führende Innovatorin an der Schnittstelle zwischen Nachhaltigkeitsforschung, generativem Design und KI. Nach ihrem Studium der Umweltwissenschaften und Architektur an der TU Berlin und einem Master in Computational Design am MIT gründete sie 2022 das Parametric Sustainability Lab in Berlin. Ihr Start-up entwickelt KI-gestützte Designtools, die Lebenszyklusanalyse, Kreislaufwirtschaft und regenerative Designprinzipien in parametrische Modelle integrieren. Ihre Arbeit wurde mit dem Deutschen Nachhaltigkeitspreis für Innovation 2024 ausgezeichnet. Müller berät führende deutsche Architekturbüros und Bauunternehmen bei der Integration regenerativer Designprinzipien in ihre Projekte und forscht zu neuen Methoden der algorithmischen Nachhaltigkeitsoptimierung.

Modenauatelier: Frau Müller, Ihr Unternehmen hat sich auf die Integration von Nachhaltigkeitsprinzipien in generative Designalgorithmen spezialisiert. Was waren Ihre wichtigsten Erkenntnisse in diesem Bereich?

Lisa Müller: Unsere wichtigste Erkenntnis war, dass Nachhaltigkeit in generativen Designprozessen fundamental anders betrachtet werden muss als in konventionellen Ansätzen. Traditionell wird Nachhaltigkeit oft als nachträgliche Bewertung oder Optimierung eines bereits entwickelten Designs verstanden. Bei generativen Methoden können wir Nachhaltigkeit dagegen als inhärenten Teil der Designgenerierung implementieren – als "DNA" des Entwurfsprozesses.

Eine zweite zentrale Erkenntnis: Die vollständige Integration von Lebenszyklusdenken in generative Algorithmen erfordert eine radikal andere Datenbasis. Wir mussten Materialienzyklen, Energieflüsse und Ressourcenketten in maschinenlesbare Parameter übersetzen und dabei Unsicherheiten über zukünftige Entwicklungen berücksichtigen.

Besonders wichtig war die Erkenntnis, dass echte Nachhaltigkeit mehr umfasst als CO₂-Reduktion und Energieeffizienz. Unsere erfolgreichsten Projekte integrieren Biodiversität, lokale Materialkreisläufe, soziale Resilienz und adaptive Wiederverwendbarkeit in die generativen Parameter.

Nicht zuletzt haben wir gelernt, dass die Kombination von Top-down-Optimierungsalgorithmen mit Bottom-up-Emergenzmodellen besonders leistungsfähig ist. Während Optimierungsalgorithmen definierte Nachhaltigkeitsziele verfolgen, können emergente Systeme unerwartete Synergien und Lösungswege entdecken, die menschliche Experten übersehen hätten.

Modenauatelier: Wie integrieren Sie Prinzipien der Kreislaufwirtschaft konkret in Ihre generativen Designalgorithmen?

Lisa Müller: Wir haben einen mehrdimensionalen Ansatz entwickelt, den wir "Circularity by Design" nennen. Der erste Schritt ist die Integration umfassender Materialdatenbanken, die nicht nur ökologische Fußabdrücke enthalten, sondern auch Informationen zu Wiederverwertbarkeit, Reparierbarkeit und Kompatibilität mit anderen Materialien. Diese Daten fließen direkt in die Fitnessfunktionen unserer generativen Algorithmen ein.

Zweitens haben wir Module entwickelt, die Verbindungstechnologien und Fügemethoden als Parameter im generativen Prozess berücksichtigen. Der Algorithmus bevorzugt automatisch lösbare, mechanische Verbindungen gegenüber permanenten chemischen Verbindungen, wenn dies konstruktiv möglich ist.

Ein dritter Aspekt ist die Integration von "Design for Disassembly" in die Bauteilgeometrie. Unsere Algorithmen erzeugen automatisch Zugänglichkeit zu Verbindungspunkten und optimieren die Demontierbarkeit, ohne die strukturelle Integrität zu kompromittieren.

Besonders innovativ ist unser "Material Passport Generator". Dieses Modul erzeugt während des Designprozesses automatisch detaillierte digitale Materialinventare, die die zukünftige Wiederverwendung erleichtern. Jede generierte Design-Option erhält einen Kreislauffähigkeitsindex, der die potentielle zirkuläre Wertschöpfung quantifiziert.

Schließlich arbeiten wir mit Szenariomodellierung, die verschiedene End-of-Life-Optionen simuliert und deren Wahrscheinlichkeit in die Designentscheidungen einbezieht. Der Algorithmus optimiert nicht nur für die erste Nutzung, sondern für multiple Lebenszyklen und Transformationspfade.

Modenauatelier: Können Sie ein konkretes Beispiel für ein Projekt nennen, bei dem Ihre nachhaltigen generativen Designmethoden zu messbaren Verbesserungen geführt haben?

Lisa Müller: Ein gutes Beispiel ist unsere Zusammenarbeit mit EDGE Technologies für ihr neues Bürogebäude in Frankfurt. Die Herausforderung bestand darin, ein Gebäude zu entwerfen, das nicht nur minimale Umweltauswirkungen hat, sondern aktiv regenerativ wirkt – also mehr positive als negative Effekte erzeugt.

Unser generativer Algorithmus integrierte über 40 Nachhaltigkeitsparameter, von Energieerzeugung und -verbrauch über Wasserkreisläufe und Biodiversität bis hin zur sozialen Interaktion und adaptiven Nutzbarkeit. Das Besondere: Wir modellierten nicht nur den Neubau, sondern auch die Transformation eines hypothetischen Bestandsgebäudes mit vergleichbarer Nutzfläche, um eine echte Vergleichsbasis zu haben.

Die Ergebnisse waren beeindruckend: Im Vergleich zu einem konventionell geplanten Neubau (der bereits Nachhaltigkeitsstandards erfüllte) erreichte unser generatives Design eine Reduktion der grauen Energie um 47%, einen positiven Wasserbilanz (+15% mehr gereinigtes als verbrauchtes Wasser), eine Steigerung der lokalen Biodiversität um 230% und einen Materialeinsatz, der zu 92% kreislauffähig ist.

Besonders interessant: Der Algorithmus identifizierte überraschende Synergien zwischen scheinbar widersprüchlichen Zielen. Beispielsweise führte die Optimierung für Biodiversität zu einer effizienteren Gebäudeklimatisierung, da die integrierten Biotope als natürliche Klimapuffer fungieren. Solche emergenten Effekte wären in konventionellen Planungsprozessen schwer zu entdecken.

Das Gebäude wird im kommenden Jahr fertiggestellt und mit einem umfangreichen Monitoring-System ausgestattet, das die prognostizierten Performance-Werte kontinuierlich überprüft und für zukünftige Projekte Lerneffekte generiert. Wir erwarten, dass die realen Daten unsere Simulationen bestätigen und weitere Optimierungspotenziale aufzeigen werden.

Modenauatelier: Wie sieht Ihre Vision für die Zukunft generativer Nachhaltigkeitsoptimierung in der Architektur und Stadtplanung aus?

Lisa Müller: Ich sehe fünf zentrale Entwicklungslinien für die nächsten Jahre. Erstens werden generative Algorithmen zunehmend bioregionale Spezifität integrieren – also lokale Ökosysteme, Materialien und Klimabedingungen als fundamentale Parameter behandeln, statt standardisierte Lösungen zu skalieren. Jedes Design wird organisch aus seinem Kontext entstehen.

Zweitens erwarte ich einen Paradigmenwechsel von der Minimierung negativer Umweltauswirkungen hin zu regenerativem Design. Unsere Algorithmen werden darauf ausgerichtet sein, Gebäude und Stadtstrukturen zu generieren, die aktiv zur Regeneration von Ökosystemen, Wasserkreisläufen und sozialen Gemeinschaften beitragen.

Drittens wird die Integration von Gebäude- und Stadtmaßstab voranschreiten. Statt isolierte Optimierungen einzelner Gebäude werden wir symbiotische Beziehungen zwischen Gebäuden in Quartieren modellieren – Energie-, Material- und Wasserkreisläufe, die Gebäudegrenzen überschreiten.

Viertens sehe ich die Evolution von statischen zu adaptiven Designs. Generative Algorithmen werden nicht nur initiale Zustände optimieren, sondern Transformationspfade und Adaptionsstrategien für verschiedene zukünftige Szenarien entwickeln. Die Gebäude und Stadtstrukturen werden "designed to evolve" sein.

Und schließlich erwarte ich eine Demokratisierung dieser Technologien. Was heute noch komplexe Expertentools sind, wird durch intuitive Interfaces zugänglich für Kommunen, kleine Architekturbüros und sogar Bürgerinitiativen. Dies wird zu einer Dezentralisierung nachhaltiger Designinnovation führen.

Meine Vision ist eine Zukunft, in der generatives Design nicht nur nachhaltiger ist, sondern fundamentale Designprinzipien von natürlichen Systemen übernimmt – Resilienz durch Diversität, geschlossene Ressourcenkreisläufe und adaptive Evolution. Wir bewegen uns von einer mechanistischen zu einer ökosystemischen Designphilosophie.

Modenauatelier: Welche Rolle spielen Daten und KI-Modelle in Ihrem Ansatz, und wie gehen Sie mit Herausforderungen wie Datenverfügbarkeit und Algorithmic Bias um?

Lisa Müller: Daten sind das Fundament unserer Arbeit, aber gleichzeitig eine kontinuierliche Herausforderung. Wir nutzen drei Hauptkategorien von Daten: Umweltdaten (Ökobilanzen, Klimadaten, Ökosystemparameter), technische Daten (Material- und Bauteilperformanz, Energiesysteme) und Nutzungsdaten (menschliches Verhalten, soziale Interaktion, Komfortparameter).

Die größte Herausforderung bei Nachhaltigkeitsdaten ist ihre Heterogenität und unterschiedliche Granularität. Ökobilanz-Datenbanken verwenden verschiedene Systemgrenzen und Methodiken, was die Vergleichbarkeit erschwert. Wir haben deshalb eigene Normalisierungsalgorithmen entwickelt, die diese Unterschiede ausgleichen und konsistente Parameter für unsere generativen Modelle erzeugen.

Bezüglich Algorithmic Bias haben wir mehrere Ansätze implementiert. Erstens trainieren wir unsere Modelle mit bewusst diversen Datensätzen, die verschiedene geografische, kulturelle und sozioökonomische Kontexte abdecken. Zweitens integrieren wir explizite Fairness-Parameter in unsere Optimierungsalgorithmen, die auf soziale Gerechtigkeit und gleichen Zugang zu Ressourcen abzielen.

Ein besonders wichtiger Aspekt ist die Transparenz unserer Modelle. Wir entwickeln "explainable AI"-Lösungen, die nachvollziehbar machen, wie Entscheidungen zustande kommen. Dies ist entscheidend, um Vertrauen zu schaffen und eine kritische Evaluation der generierten Designs zu ermöglichen.

Um Datenlücken zu überbrücken, kombinieren wir verschiedene Strategien: Wir nutzen Transfer Learning, um Erkenntnisse aus datenreichen auf datenarme Domänen zu übertragen, synthetische Daten für Szenarien, zu denen keine Realdaten vorliegen, und kollaborative Datenplattformen, auf denen Organisationen anonymisierte Nachhaltigkeitsdaten teilen können.

Langfristig arbeiten wir an dezentralen Datenökosystemen, in denen Gebäude kontinuierlich Performance-Daten in standardisierten Formaten generieren und in einen kollektiven Wissenspool einspeisen. Diese "Learning Buildings" werden eine empirische Basis für immer präzisere generative Nachhaltigkeitsmodelle schaffen.

Projekte unter der Leitung von Lisa Müller

EDGE Frankfurt - Regeneratives Bürogebäude

EDGE Frankfurt

Regeneratives Bürogebäude mit geschlossenen Wasser- und Materialkreisläufen

Circular Building Platform - Generative Design für Kreislaufwirtschaft

Circular Building Platform

Open-Source-Tool zur automatisierten Kreislauffähigkeitsoptimierung von Gebäuden

Kernaussagen des Interviews

  • Nachhaltigkeit muss als inhärenter Teil der "DNA" generativer Designprozesse implementiert werden, nicht als nachträgliche Bewertung
  • Integration von Kreislaufwirtschaft durch Material-Datenbanken, demontierbare Verbindungen, Design for Disassembly und digitale Materialpässe
  • Generative Nachhaltigkeitsoptimierung kann zu 45-50% Reduktion grauer Energie, positiven Wasserbilanzen und über 90% Kreislauffähigkeit führen
  • Die Zukunft liegt in bioregionaler Spezifität, regenerativem Design statt Schadensminimierung und adaptiven statt statischen Lösungen
  • Datenheterogenität und Algorithmic Bias werden durch Normalisierung, diverse Trainingsdaten und explainable AI-Ansätze adressiert
  • Langfristige Vision: Dezentrale Datenökosysteme mit "Learning Buildings", die kontinuierlich Performance-Daten generieren

Bleiben Sie informiert

Melden Sie sich für unseren Newsletter an, um Benachrichtigungen über neue Interviews und Forschungsergebnisse zu erhalten.