Innovationen für die Zukunft, die Sie noch nie gesehen haben: Architektur verteilter Systeme und das Grid
HeimHeim > Blog > Innovationen für die Zukunft, die Sie noch nie gesehen haben: Architektur verteilter Systeme und das Grid

Innovationen für die Zukunft, die Sie noch nie gesehen haben: Architektur verteilter Systeme und das Grid

Sep 03, 2023

InfoQ-Homepage-Präsentationen Innovationen für die Zukunft, die Sie noch nie gesehen haben: Architektur verteilter Systeme und das Grid

Astrid Atkinson spricht über die Einführung von Software-Innovationen in die Infrastruktur und die Nutzung von Erfahrungen mit Zuverlässigkeitsinnovationen im Big-Tech-Bereich, um unser Energiesystem zu transformieren und das Stromnetz zu dekarbonisieren.

Astrid Atkinson ist CEO und Mitbegründerin von Camus Energy, einem Unternehmen, das sich der Dekarbonisierung des Stromnetzes widmet und dabei einen softwarezentrierten Ansatz und umfassende Erfahrung mit verteilten Systemen nutzt. Zuvor leitete sie Software- und Systemteams bei Google, wo sie früh die Leitung des Site Reliability Engineering-Teams innehatte, und leitete anschließend Infrastrukturteams in den Bereichen Cloud, Suche und Produktinfrastruktur.

QCon Plus ist eine virtuelle Konferenz für erfahrene Softwareentwickler und -architekten, die die Trends, Best Practices und Lösungen der innovativsten Softwareunternehmen der Welt behandelt.

Lösen Sie Ihre Herausforderungen mit wertvollen Erkenntnissen von erfahrenen Softwareentwicklern, die die neuesten Trends und Praktiken anwenden. Jetzt registrieren!

Treffen Sie die richtigen Entscheidungen, indem Sie herausfinden, wie leitende Softwareentwickler bei Early-Adopter-Unternehmen neue Trends übernehmen. Jetzt registrieren!

Atkinson: Ich bin Astrid Atkinson. Ich werde über die Anwendung von Technologie auf das meiner Meinung nach größte Problem unserer Generation und der Welt in ihrer heutigen Form sprechen. Einige von Ihnen haben vielleicht schon vom Klimawandel gehört. Es wird in den Nachrichten immer beliebter. Ich denke, in den letzten fünf oder zehn Jahren haben wir wirklich einen Übergang von einer allgemeinen Auffassung des Klimawandels gesehen, von einem Problem, das möglicherweise in 50 oder 100 Jahren unsere Enkelkinder betreffen könnte, zu einem Problem, das unsere Großeltern unmittelbar betrifft , passiert heute. Mit immer dramatischeren Auswirkungen auf den Alltag. Das ist offensichtlich ein wirklich großes Problem. Ich spreche viel mit Leuten, die herausfinden möchten, wie sie ihre Karriere und ihre Arbeit darauf ausrichten können, dieses Problem anzugehen. Ich rede auch viel mit Leuten, die so ziemlich schon aufgegeben haben. Ich denke, wenn man sich ein Problem dieser Größenordnung anschaut, und eines, bei dem wir offensichtlich noch nicht ganz auf dem richtigen Weg sind, kann man einen Blick darauf werfen, den Kopf schütteln und sagen: Vielleicht ist es schon zu spät. Vielleicht ist der Wandel bereits eingeleitet. Meiner Meinung nach liegen im Grunde zwei Zukunftsaussichten vor uns. In einem von ihnen machen wir es richtig. Wir machen die Arbeit. Wir finden heraus, was erforderlich ist. Es ist Technologie. Es ist Politik. Es ist Politik. Es sind Menschen. Wir investieren in die Technologie, die Politik, die Politik und die wirtschaftlichen Investitionen, die erforderlich sind, um die Kurve des Klimawandels effektiv umzukehren und unsere Erwärmung auf etwa 2 Grad zu begrenzen, was ein allgemein anerkannter Grenzwert für einen lebenswerten Planeten ist.

Unsere Zukunft ist vielleicht nicht dieselbe wie unsere Vergangenheit, aber nicht wesentlich schlechter, es ist eine erkennbare Welt. Ich kann mit meinen Enkelkindern abhängen, vielleicht können wir sogar Skifahren gehen. Der Großteil der Welt kann mit etwas weitermachen, das wie das heutige Leben aussieht. In der anderen Version der Zukunft tun wir das nicht. Wir hören auf, Maßnahmen zu ergreifen. Es gelingt uns nicht, es besser zu machen, als wir es derzeit tun. Wir sagen, dass die vorgenommene politische Änderung gut genug sein wird. Wir machen mit dem Leben wie gewohnt weiter und erleben die 3 bis 4 Grad oder mehr an Veränderung, die für die Pläne in ihrer heutigen Form festgelegt sind. Das ist potenziell katastrophal. Wir können die Zivilisation, die wir in diesem Modell haben, nicht unbedingt beibehalten. Vielleicht tun es einige von uns, aber definitiv nicht alle, und es sieht nicht gut aus. Wenn ich darüber nachdenke, würde ich persönlich lieber mein ganzes Leben und meine gesamte Karriere damit verbringen, an der ersten Version der Zukunft zu arbeiten. Denn wenn wir uns nicht dafür entscheiden, ist das Zweite unvermeidlich. Da stehe ich. Deshalb stehe ich hier vor Ihnen und spreche über den Einsatz von Technologieanwendungen und den Einsatz von Technologietalenten, um zu versuchen, dieses existenzielle Problem anzugehen.

Wenn wir an die Dekarbonisierung denken, etwa 60 %, sind etwa zwei Drittel des Problems unser Energiesystem. Die anderen 30 % sind Dinge wie Landnutzung, industrielle Nutzung und dergleichen. Auch die sind wichtig. Energie ist ein wirklich guter Schwerpunkt, denn sie ist ein wirklich großes Problem. Die wirklich stark vereinfachte zweistufige Version der Dekarbonisierung unseres Energiesystems ist Schritt 1: Wir elektrifizieren alles, damit wir saubere und effiziente Energiequellen nutzen können. Schritt 2: Wir dekarbonisieren das Netz, das unser Stromliefersystem ist. Jetzt haben wir zwei Probleme. Ich spreche über die Veränderung, die sehr schnell erforderlich sein wird. Dies ist eine ältere Sichtweise des Energieflusses nur durch die Energiesysteme der USA. Sie sehen, dass unsere Energie aus einer Reihe sauberer Quellen stammt. Im Allgemeinen muss alles, was derzeit eine fossile Quelle ist, in die orangefarbene Kiste dort oben verschoben werden. Das ist eine ziemlich große Veränderung.

In jeder Version davon muss das Raster noch viel mehr Arbeit leisten. Wir müssen viel mehr Energie verteilen. Es gibt auch viele Versionen davon, bei denen es viel mehr getrennte Generationen gibt und so weiter. Nur um diesem Problem einen Rahmen zu geben. Ich verwende auf dieser Folie zwei Zahlengruppen. Einer stammt aus dem Netto-Null-Plan bis 2050 der Internationalen Energieagentur, der praktisch ein internationaler Rekordplan ist. In diesem Plan für 2050 ist zu beachten, dass sich in den Details die überraschende Bemerkung verbirgt, dass die Industrienationen USA, Großbritannien, Australien und Westeuropa bis 2035 vollständig dekarbonisiert sein sollen. Ich bin mir nicht sicher, ob das irgendjemand auf dem Radar hat in dem Maße, wie es heute sein muss. Die anderen Zahlen hier stammen aus einer NREL-Studie darüber, was nötig wäre, um unser elektrisches System und damit unser Energiesystem bis 2035 zu dekarbonisieren, wenn man nur die USA betrachtet. Natürlich ist dies ein nationales Problem, aber diese Zahlen sind gut begrenzt und auf diese Weise verwandt.

In dieser Sichtweise, wie die Zukunft aussehen könnte, haben sie mehrere Szenarien, die von hochnuklearen bis hin zu brandneuen Technologien reichen. Jede Version dieses Lösungspakets bedeutet, dass wir viel mehr erneuerbare Energien benötigen. Wir benötigen möglicherweise einige neue oder erweiterte Grundlasttechnologien. Wir brauchen viel Ladung, um flexibel zu sein. Wir brauchen eine starke Verbindung zwischen den Orten, an denen Energie erzeugt werden kann, und den Orten, an denen Energie produziert wird. Letzteres ist eigentlich wirklich knifflig, da jede Version dieses Plans auf einer zwei- bis fünffachen Erhöhung der Kapazität unseres bestehenden Übertragungsnetzes beruht. Ich werde gleich ein wenig über das Übertragungsnetz und das Verteilungsnetz sprechen. Man könnte sich das Übertragungsnetz praktisch als das Internet-Rückgrat des Netzes vorstellen. Es sind die großen Fernleitungen, die Verbindungen über sehr weite Entfernungen herstellen. Im Allgemeinen ist es in erster Linie dafür verantwortlich, Energie von den Orten, an denen sie erzeugt wird, von großen Generatoren in lokale Regionen zu transportieren. Ich werde gleich ein wenig über verschiedene Teile des Netzwerks sprechen. Jede Version davon erfordert eine sehr große Erweiterung dieser Kapazität. Das ist ein wirklich großes Problem, denn der Bau einer neuen Linie dauert normalerweise 5, 10, 15, 30 Jahre. Das ist ein ziemlich großes verstecktes Hindernis in einem solchen Übergangsplan. Dadurch wird die Rolle des Netzwerks in seiner heutigen Form immer wichtiger.

Nun beinhaltet jede Version dieses Plans auch die Zusammenführung vieler verschiedener Arten von Technologien. Es gibt mehrere Arten von Erzeugungstechnologien. Es gibt Solar. Es gibt Wind. Es gibt Wasserkraft, Kernkraft, Geothermie und Biomasse. Es gibt auch viele nachfrageseitige Technologien, und jede kurze Begegnung mit Grid-Technologien wird Ihnen eine ganze Menge davon zeigen. Im Allgemeinen fallen alle diese nachfrageseitigen Technologien, von steuerbaren internen Wärmepumpen über Ladegeräte für Elektrofahrzeuge bis hin zu Batterien, unter die allgemeine Überschrift „verteilte Energieressourcen“. Alles, was wirklich bedeutet, sind nur die Energieressourcen, die in Ihrem Zuhause oder Unternehmen vorhanden sind. Sie befinden sich am Rande des Rasters. Sie befinden sich sehr nahe an einem Teil des Nachfragegefüges des Netzes. Es gibt etwas, das im Netz von heute immer wichtiger wird und ein Eckpfeiler des Netzes der Zukunft sein wird. Denn das Netz muss eine etwas andere Aufgabe erfüllen als heute. Das heutige Netz ist im Wesentlichen dafür verantwortlich, Energie von den weit entfernten Orten, an denen sie erzeugt wird, zu den Orten zu liefern, an denen sie verbraucht wird. Dabei muss stets ein vollständiges Gleichgewicht zwischen Angebot und Nachfrage in Echtzeit gewährleistet sein. Das Netz der Zukunft ist alles wahr, aber wir müssen es auch nutzen, um Energie im Laufe der Zeit auszugleichen und zu bewegen. Wir müssen in der Lage sein, Energie von der Zeit und dem Ort, wo sie erzeugt wird, zu der Zeit und dem Ort zu bringen, wo sie benötigt wird. Das bedeutet, Angebot und Nachfrage zu verschieben. Das bedeutet Lagerung. Es bedeutet auch Management. Ich werde darüber sprechen, wie die Technologieanwendungen in diesem Bereich aussehen.

Der große Haken bei all dem ist, dass die Technologie in der Grid-Landschaft ziemlich veraltet ist. Dafür gibt es mehrere Gründe. Einer davon ist, dass es einen angeborenen Konservatismus gibt, wenn man dafür verantwortlich ist, die Dinge am Laufen zu halten und dafür zu sorgen, dass das Licht an bleibt, womit viele Leute Erfahrung haben werden. Du willst dich nicht damit anlegen. Ein weiterer Grund ist, dass es sich hierbei um eine langsam voranschreitende Legacy-Branche handelt, auf der viel Geld und großer Druck lastet. Aus verschiedenen Gründen, viele davon aufgrund des Konservatismus in Bezug auf Dinge wie Cybersicherheit, ist heute fast die gesamte Netztechnologie vor Ort. Das bedeutet, dass sie keinen Zugriff auf den Rechenumfang haben, den Sie für die Verarbeitung von Echtzeitdaten aus dem Grid benötigen würden. Sie sind der Meinung, dass Daten, die etwa 15 Minuten lang auf einem Smart Meter vom Netz abgelesen werden, eine Menge sind. Jeder weiß, dass das wirklich nicht der Fall ist. Es handelt sich vielleicht bestenfalls um mittlere Daten. Für verteilte Systemstandards handelt es sich wirklich nicht um eine große Datenmenge. Wenn Sie lokal mit nur einem Computer arbeiten, kann das eine ganze Menge werden.

Der aktuelle Stand der Technik im Grid-Bereich ist grundsätzlich ziemlich datenarm und für die meisten Datenquellen nicht einfach in Echtzeit möglich. Es hängt wirklich von der Idee ab, Daten aus einer kleinen Menge von Quellen in ein physikalisches Modell einzuspeisen, das das Gitter emuliert und es dann auflöst, um Ihnen zu sagen, was an einem bestimmten Punkt darin passiert. Das ist schön, aber es ist überhaupt nicht dasselbe wie Echtzeitüberwachung. Es ist nicht die Grundlage, um massive Veränderungen voranzutreiben, denn das Einzige, was man darin erkennen kann, ist das Modell. Sie können das System nicht kennen. Wie jeder weiß, der mit einem verteilten System gearbeitet hat, sind die Daten über das Echtzeitsystem die Grundlage für alles andere, was wir tun. So wissen Sie, ob die Dinge funktionieren. So wissen Sie, wie die Dinge funktionieren. So planen Sie auf adaptive Weise für die Zukunft.

Das war für mich wirklich der Ursprung der Gründung meines jetzigen Unternehmens, das Netzmanagementsoftware für Leute entwickelt, die Netze betreiben, und dabei handelt es sich in der Regel um Versorgungsunternehmen. Es genügt zu sagen, dass es meiner Meinung nach in diesem Bereich eine wirklich wichtige und sogar dringende Anwendung verteilter Systemtechnologien gibt, denn wir brauchen, dass diese Systeme Cloud-nativ sind, und das brauchen wir schon seit gestern. Wir brauchen es nicht, weil die Cloud der Computer eines anderen ist, sondern weil es sich bei der Cloud um globales oder Hyperscale-Computing handelt. Wir müssen in der Lage sein, große Mengen an Echtzeitdaten zu verarbeiten. Wir müssen in der Lage sein, komplexe Echtzeit-Ausgleichsoptimierungs- und maschinelle Lern-KI-Probleme zu lösen. Wir müssen in der Lage sein, dies in sehr großem Maßstab und sehr schnell zu tun. Das ist der Grund. Das ist der Technologiewechsel, der im Grid-Bereich stattfinden muss.

Ich werde hier ein wenig über einige Terminologieverwirrungen sprechen. Ich betrachte mich selbst als verteilten Systemingenieur, oder meine Arbeit ist verteilte Systemtechnik. Das ist im Netzbereich sehr verwirrend, denn Menschen, die am Netz arbeiten, sind es gewohnt, über das Verteilungssystem nachzudenken, das den Teil des Netzes darstellt, der mit Ihrem Haus, Ihrem Unternehmen oder was auch immer verbunden ist. Versorgungsunternehmen wie PG&E, ComEd, ConEd und SDG&E sind in erster Linie Verteilungsunternehmen. Wenn Sie das Wort „verteilen“ oder „verteilt“ sagen, denken sie nur an eine ganze Reihe von Kabeln, die mit Ihrem Haus verbunden sind. Aus diesem Grund haben wir begonnen, das, was wir im Softwarebereich tun, als Hyperscale Computing oder Cloud Computing zu bezeichnen, einfach weil es verwirrend ist. Im Grunde besteht der technologische Wandel und der Übergang, den wir für das Netz vollziehen müssen, darin, von einem zentralisierten Modell, wie das Netz betrieben und konstruiert wird, zu einem verteilten Modell zu wechseln, in dem viele kleine Ressourcen eine entscheidende Rolle spielen. Eigentlich geht es hier darum, ein verteiltes System für das Vertriebssystem zu schaffen. Wieder einmal verwirrend, aber hier sind wir. Tatsächlich sind viele der Terminologien, viele Konzepte usw. überraschend häufig. Das ist wirklich das, worüber ich sprechen werde, nämlich die Art und Weise, wie wir die Lehren, die wir aus dem Design, der Architektur und der Technik verteilter Systeme gezogen haben, anwenden und in den Rasterraum einbringen können, um das Tempo des Wandels zu beschleunigen.

Ich war etwa seit 2004 bei Google. Das war eine wirklich wichtige und entscheidende Zeit sowohl für Google als auch für die Branche. Ich wurde ursprünglich etwa zwei Jahre vor der Einführung der Cloud-Plattform für die Arbeit an der Cloud-Plattform von Google eingestellt. Laut Wikipedia wurde der Begriff „Cloud“ erstmals 2006 von Eric Schmidt auf einer öffentlichen Konferenz verwendet. Im Jahr 2004 führte Google seine interne Cloud ein und vollzog einen wirklich bedeutenden Übergang von diesem zentralisierten Rechenmodell mit wenigen großen Ressourcen zu einem hocheffizienten verteiltes Modell zur Verteilung der Arbeit auf Millionen von Computern. Das war etwas völlig Neues in der Branche. Wir konnten niemanden einstellen, der das schon einmal gemacht hatte. Wir lernten im Laufe der Zeit. Das war eine wirklich aufregende Zeit. Dieses Meme bringt mich immer zum Schmunzeln, denn es stammt aus meiner Zeit bei Google. Außerdem, weil ich etwa 2007 zusammen mit anderen Leuten, die ebenfalls an diesem sehr groß angelegten Übergang zu verteilten Systemen arbeiten, die Flamingos auf den Dinosaurier gesetzt habe. Es sollte eigentlich ein Witz über verteilte Systeme sein. Es war tatsächlich wie bei all den kleinen Systemen, die kamen, um das Dinosauriersystem zu fressen. Es war ein Aprilscherz. Es war eines, das am Ende ziemlich bedeutende Beine hatte. Jahre später sah ich jemanden kommen, der dem Dinosaurier Flamingos brachte, und es war, als würde er einen anderen Flamingo angreifen. Ich liebe das, weil ich denke, dass es auch eine schöne Metapher dafür ist, wie Systeme sich im Laufe der Zeit selbst tragen und weiterentwickeln, wenn man diese wirklich großen Paradigmenwechsel sieht.

Die Geschichte, wie man von ein paar großen Servern zu einer Reihe kleiner Server gelangt, ist ziemlich gut erzählt. Es genügt zu sagen, dass wir in jedem Modell von einer kleinen Anzahl zuverlässiger Server zu einer großen Anzahl verteilter Server übergehen. Diese Struktur des Systems verteilt die Arbeit auf diese Maschinen, kümmert sich um Ausfälle, ermöglicht es Ihnen, Arbeit auf eine Weise zu verschieben, die weiß, wie sie innerhalb des Systems als Ganzes funktioniert, und ermöglicht es Ihnen, Arbeit unter einfacher Bedienersteuerung zu verschieben. Ist es die Struktur dieses Systems, die es Ihnen ermöglicht, eine höhere Zuverlässigkeit aus dem System zu ziehen, als Sie aus jedem einzelnen Teil davon herausholen können? Im Kontext verteilter Google-Systeme, und das gilt im Allgemeinen für die meisten Cloud-Computing-Umgebungen, gibt es diese Reihe von Backbone-Funktionen. Für mich ist die Überwachung die Grundlage für alle, denn sie ist immer die Grundlage für den Aufbau eines zuverlässigen Systems. Es gibt auch Ideen rund um die Orchestrierung, etwa die Übertragung von Arbeit an Maschinen oder die Übertragung von Arbeit an Orte, an denen Arbeit im Hinblick auf Lastzuweisung, Lebenszyklusmanagement und Flottenmanagement erledigt werden kann. Das wäre heute ein System vom Typ Container-Orchestrierung. Für Google war es Borg, aber Kubernetes oder eine gleichwertige Technologie passt meiner Meinung nach in diesen Bereich. Der Lastausgleich, die Fähigkeit, zu erledigende Arbeiten an die Kapazitätsstandorte weiterzuleiten, an denen Arbeiten ausgeführt werden können, ist eine grundlegende Verbindungstechnologie aller verteilten Systeme. Wenn Sie mit größeren Systemen arbeiten, erhöht die Suche nach Möglichkeiten, diese Arbeitsverteilung flexibler zu gestalten, die Zuverlässigkeit des Systems insgesamt erheblich.

Während wir diesen Prozess für Google durchliefen, war es eine zentrale Designanforderung aller von uns vorgenommenen Änderungen, die Zuverlässigkeit von Google auf dem Nutzwertniveau von fünf Neunen oder besser zu halten. Sich darüber Gedanken zu machen, wie man in einem System, das Zehntausende von Microservice-Typen, nicht nur Microservices oder Instanzen, und Millionen bis Milliarden von Instanzen umfasst, sorgfältig Stück für Stück austauscht, ist ein Prozess mit hoher Nachfrage und einer, bei dem man Gutes braucht Fundamente, und Sie brauchen eine wirklich gute Sicht. Dabei geht es nicht nur um die Technologie. Es geht auch um die Werkzeuge, die das System als Ganzes für den Betreiber verständlich und einfach halten und es einer kleinen Gruppe von Betreibern ermöglichen, sich sinnvoll damit auseinanderzusetzen.

Bevor wir über das Grid sprechen, möchte ich nur über Muster sprechen, wie man in dieser Art von Umgebung eine Infrastruktur auf verallgemeinerbare Weise aufbaut. Dies ist für das Stromnetz wichtig, da es tatsächlich sehr schwierig ist, Systeme ohne Versorgungsunternehmen aufzubauen. Es ist auch sehr schwierig, Systeme mit einem Dienstprogramm zu erstellen. Im Allgemeinen arbeiten Sie immer mit echten Kunden zusammen, wenn Sie ein großes Infrastruktursystem aufbauen. Sie möchten mit mehr als einem, weniger als fünf beginnen. Sehr früh im Lebenszyklus eines Infrastrukturentwicklungsprojekts möchten Sie so groß werden, wie Sie es beabsichtigen. Denn wenn Sie es nicht sehr früh tun, werden Sie dieses Ausmaß nie erreichen. Das war das erfolgreiche, wiederholbare Muster, das ich sah, als wir bei Google Dutzende bis Hunderte von Infrastrukturdiensten entwickelten. Es ist auch das, was wir heute in der Grid-Landschaft verwenden.

Reden wir über das Raster. Die Überwachung ist meiner Meinung nach ein ziemlich grundlegender Bestandteil jedes zuverlässigen und sich weiterentwickelnden verteilten Systems. Das ist tatsächlich eines der Dinge, die in der heutigen Netzlandschaft wirklich herausfordernd sind. Ich werde heute einfach durchgehen, wie das in der Praxis aussieht. Hier ist ein Beispiel für ein Verteilungsnetz. Wir haben im Grunde ein radiales Netzwerk, das bis zu den Rändern reicht. Es gibt verschiedene Arten von Gittertopologien, aber diese ist weitverbreitet und zugleich die klischeehafteste und komplizierteste. Wenn wir uns die Teile des Netzes ansehen, gibt es das Übertragungsnetz, das heute das Internet-Rückgrat des Netzes darstellt. Ein Übertragungsnetzwerk ist eigentlich ziemlich einfach, es ist ein Mesh-Netzwerk, es hat nicht viele Knoten. Es gibt Tausende, nicht Hunderttausende. Es ist wirklich gut instrumentiert. Es verfügt über Echtzeit-Sichtbarkeit. Es wird heute in Echtzeit betrieben. Heutige unabhängige Systembetreiber wie CAISO oder MISO oder wer auch immer haben einen ziemlich guten Überblick darüber, was mit sehr großen Umspannwerken in einem sehr großen Netzwerk passiert. Hier draußen an den Rändern gibt es einige Ressourcen, die heute an diesem Ökosystem und diesen Märkten beteiligt sind, aber das sind in der Regel nur wenige. Es handelt sich um wirklich große, typischerweise gewerbliche und industrielle Kunden. Um teilnehmen zu können, müssen sie außerdem eine vollständige Echtzeittransparenz des Übertragungsnetzes bereitstellen.

Im weiteren Verlauf besteht das Ziel darin, dass diese verteilten Energieressourcen, die sich an Kundenstandorten befinden, Teil dieser Infrastruktur werden. Es gibt noch keine Telemetrieanforderungen, daher ist es schwierig, genau zu erkennen, was passieren könnte. Aus der Perspektive eines Menschen ist es schwer zu sagen, was passiert, wenn er dies tut. Aus Sicht des Übertragungsnetzes ist dies der nächste Schritt. Die jüngste Verordnung 2222 der Federal Energy Regulatory Commission schreibt vor, dass dies erforderlich sein sollte, sagt jedoch nicht, wie. Sagt nichts über Telemetrie, Netzwerkmanagement, Integration. Das ist ein wirklich guter Schritt, denn das Erzwingen des Ergebnisses hilft dabei, jeden dazu zu zwingen, über den Mechanismus nachzudenken.

Auf der Vertriebsseite ist die Datengeschichte weniger gut. Obwohl die meisten Verteilnetzbetreiber heutzutage über intelligente Zähler verfügen, können sie in der Regel sehen, was in einem bestimmten Zähler vor 2 bis 24 Stunden passiert ist. Dies ist auf die Langsamkeit der Datenerfassung zurückzuführen. Normalerweise verfügen sie an keinem Teil der Leitung unterhalb der Umspannstation über eine direkte Instrumentierung. Sie verfügen auch nicht unbedingt über genaue Modelle der Konnektivität der Messgeräte zu Transformatoren, Einspeisungen und Phasen. Die Ausführung des von mir erwähnten Modells ist ziemlich schwierig, wenn man weder über die Daten noch über das Modell verfügt. Dies ist ein wirklich großes Hindernis für das Hinzufügen weiterer Dinge an den Rändern des Rasters. Es macht es sehr schwierig, sich bei einer eventuell vorgenommenen Änderung sicher zu fühlen, weil man nicht sehen kann, was vor sich geht.

Es gibt viele Fragen. Alles ok? Was passiert da draußen? Bis vor etwa 5 oder 10 Jahren wurde bei Planung und Betrieb des Vertriebsnetzes im wahrsten Sinne des Wortes ein Lastwachstum für die nächsten 10 Jahre prognostiziert. Dann wird die physische Ausrüstung des Gitters um das Zehnfache überbaut. Dann warten Sie darauf, dass Sie jemand anruft, wenn etwas brennt oder der Strom ausfällt. Das waren im wahrsten Sinne des Wortes Vertriebsoperationen. Wenn an den Rändern viel passiert, ist das natürlich nicht so toll. Das reicht nicht unbedingt aus. Das ist nicht das Modell, das wir brauchen, wenn wir in der Lage sein wollen, viel Solarstrom, viel Batterie, viele Elektrofahrzeuge hinzuzufügen, was auch immer, aber es ist das, was wir hatten. Der erste Schritt, um wesentliche Änderungen vornehmen zu können, besteht im Wesentlichen darin, die uns vorliegenden Daten zu nutzen und herauszufinden, was wir damit machen können. Dies ist der erste Punkt, an dem dieser Cloud-Scale- und Hyperscale-Distributed-Computing-Ansatz wirklich relevant wird. Dies ist auch der erste Ort, an dem ich über maschinelles Lernen sprechen werde.

Es gibt viele Daten da draußen, sie sind einfach nicht sehr in Echtzeit. Es ist nicht sehr umfassend. Bei den meisten Versorgungsunternehmen besteht heutzutage auch kein Zusammenhang. Wenn wir uns das Raster ansehen, ist die Möglichkeit, die vorhandenen Daten zu nutzen und so etwas wie Echtzeit zu erhalten, tatsächlich eine wirklich gute Anwendung für Technologien des maschinellen Lernens. Es gibt eine Menge Dinge, die wir tun können. Wir können vorhersagen und einen Nowcast darüber erhalten, was an jedem einzelnen Zähler passiert, sowohl hinsichtlich der Nachfrage als auch der Solarstromerzeugung. Sobald wir ein genaues Modell der Endlasten haben, können wir Mittellinienlasten berechnen. Wir können Telemetriedaten von Drittanbietern von den vorhandenen Geräten abrufen. Tesla verfügt über eine wirklich gute Telemetrie auf seinen Geräten und die Möglichkeit, sie im großen Maßstab zu verwalten.

Dann können wir viel tun, um aus dem Stoff, der heute da draußen ist, etwas Brauchbares zusammenzuflicken. Wenn wir vorankommen, müssen wir es besser machen. Wir müssen die Hardware-Instrumentierung bis an die Grenzen bringen. Wir benötigen Echtzeitdaten von den Zählern. Wir brauchen viele Dinge. Wenn wir dort anfangen müssen, sind wir am Arsch, weil ein solches Projekt für einen Energieversorger etwa 5 bis 10 Jahre dauert. Wir müssen mit den Daten beginnen, die wir haben, während wir die anderen Dinge einrichten. Wenn ich über Technologieanwendungen spreche, werden diese mit besseren Daten alle besser. Wir müssen mit dem beginnen, was wir haben. Herauszufinden, wie wir mit dem, was wir haben, für das Netz von heute beginnen und dabei helfen können, die Schritte zu unternehmen, die uns zum Netz von morgen führen, ist fast 100 % der Arbeit, denn auch hier wollen wir in der Lage sein, diese Arbeit auf dem Netz zu erledigen Das Netz wird bis zum Jahr 2035 sein, wie es ist. Was die Netztechnik angeht, ist das morgen.

Worauf bauen wir hin? Das heutige Verteilnetz weist eine gewisse Dynamik auf. Der größte Faktor, der den Wandel in den letzten 5 bis 10 Jahren vorangetrieben hat, ist die Rolle der Solarenergie. Die Solarenergieerzeugung ist heute nicht unbedingt ein großer Teil der meisten Stromnetze, aber an manchen Orten wie Australien und Hawaii usw. Tatsächlich ist Australien in dieser Hinsicht weltweit führend, überraschenderweise auch Deutschland, wo es wirklich viele Solaranlagen auf Dächern gibt. Die Energieversorgung durch lokale Solaranlagen auf Dächern beträgt manchmal mehr als 50 % des Tagesbedarfs, manchmal sogar bis zu 80 % oder 90 %. An diesem Punkt verursacht es wirklich erhebliche Probleme. Das Kurze daran ist, dass Sie, sobald Sie über 10 % oder so kommen, diese Kurve und die rosa Linie hier oben sehen, die sogenannte Entenkurve. Je stärker die Sonne in den Tagesteil dieser Kurve eindringt, desto tiefer liegt der Rücken der Ente. In Australien nennt man es Emu-Kurve, weil Emus Vögel mit wirklich langen Hälsen sind, man hat es auch als Dinosaurier-Kurve bezeichnet. Dies ist das Raster in seiner heutigen Form. Je steiler diese Rampen morgens und abends sind, desto größer ist das Problem, die traditionelle Generation hoch- und runterzufahren, um diese Lücken zu schließen. Denn obwohl diese Anlagen als zuverlässige Grundlastanlagen gelten und theoretisch beherrschbar sind usw., kann es auch einen Tag dauern, bis sie hoch- und runtergefahren sind, sodass sie nicht sehr flexibel sind. Die andere Sache ist, dass man anfängt, sich um Dinge wie Spannung und Frequenz usw. zu bewegen, je mehr man von dieser solaren Gegenwart bekommt. Die Reaktion der meisten Energieversorger war heute: „Machen Sie langsamer.“ Wir haben eine Verbindungswarteschlange, wir werden eine Studie durchführen oder eine Version von Nr.

Das Netz von morgen muss ganz anders aussehen. Wir müssen etwa das Dreifache der Nachfrage decken. Wir brauchen viel von dieser Last, um flexibel zu sein. Wir brauchen eine große Rolle für die Batterie. Wir brauchen eine große Menge an Stromerzeugung vor Ort, weil wir Schwierigkeiten haben werden, die gesamte Übertragung aufzubauen, die wir brauchen. Je mehr Dinge vor Ort passieren, desto besser geht es uns. Wir brauchen, dass es beherrschbar ist. Wir brauchen es, um sichtbar zu sein. Wir brauchen, dass es kontrollierbar ist. Das ist ein wirklich großer Schritt weiter, als wir heute sind. Wenn wir darüber reden: Wie unternehmen wir Schritte, um vom aktuellen Raster zum Raster zu gelangen, wie es sein muss? Sie können mit ein paar Fragen beginnen, wie zum Beispiel: „Was gibt es da draußen?“ Was ist los? Heute gibt es nicht mehr viel. Das liegt zum großen Teil daran, dass dieser Wandel noch im Anfangsstadium ist, da viele Energieversorger den Einbau zahlreicher Solar-, Batterie- oder Endverbrauchertechnologien auf Dächern zurückgedrängt haben. Das liegt auch daran, dass einer der großen Faktoren, die diesen Wandel vorantreiben, Elektrofahrzeuge sein werden, und das fängt gerade erst an, eine große Sache zu werden. Für das heutige Netz gibt es eigentlich nicht so viele Netzwerkprobleme. Allen ist es sehr gelungen, das Netzwerk zu stark auszubauen, wirklich effektiv zu planen und den Wandel so langsam voranzutreiben, dass das Tempo der Veränderungen innerhalb des Versorgungsunternehmens mithalten kann.

Wenn Sie etwas mehr erreichen, werden Sie feststellen, dass einzelne Teile des Netzwerks unter Stress geraten. In diesem Bild ist dieses kleine rote Dreieck ein Transformator, der mehrere verschiedene Standorte verbindet, an denen es intelligente Geräte gibt, sagen wir EV-Dienste, und manchmal wird dieser Transformator überlastet. Wir können es ersetzen. Es ist alles in Ordnung. Je mehr Geräte wir auf den Markt bringen, desto mehr passiert. Dies dürfte vor allem durch Elektrofahrzeuge vorangetrieben werden, aber Batterien reichen aus. Die meisten Häuser haben heute eine Spitzenlast von etwa 6 Kilowatt. Die Kilowatt-Spitzenlast eines bidirektionalen Ford F-150 Lightning-Ladegeräts beträgt 19 Kilowatt, was einer Ladung von etwa 3 bis 4 Häusern auf einmal entspricht. Dies reicht aus, um Rauch aus Transformatoren zu blasen und sie in Brand zu setzen.

Jetzt haben wir die Frage, die sich die Versorgungsunternehmen zu stellen beginnen: Wie kann ich verhindern, dass das passiert? Das ist das Erste, wozu sie neigen. Dann stellt sich die Frage: Woher weiß ich davon? Wie gehe ich damit um? Dann sind da noch all diese Softwarefirmen, wie meines, die auftauchen und sagen: „Das ist ein einfaches Problem für Software, das kann man ganz gut bewältigen. Wir planen einfach die Ladung des Fahrzeugs ein, das wird schon.“ Ein Energieversorger oder Ingenieur sieht sich das an und stellt die Frage: „Software ist großartig für Software, aber diese Transformatoren können explodieren. Wenn sie explodieren, fangen sie Dinge in Brand.“ Dies gilt im gesamten Raster. Was Sie hier haben, ist nicht unbedingt nur ein Softwareproblem, aber jetzt haben Sie ein Systemproblem, ein Kulturproblem, eines, das jedem bekannt sein wird, der an groß angelegten Systemübergängen gearbeitet hat. Auch hier handelt es sich um ein Vertrauensproblem.

Sobald Sie wissen, was da draußen ist, stellen sich Ihnen weitere Fragen, z. B.: Kann ich diese Ressourcen verwalten? Könnte ich das Laden des Elektrofahrzeugs planen? Könnte ich sie dazu bringen, mir Dienstleistungen anzubieten? Können sie mir bei der Ausbalancierung oder den Frequenz- oder Spannungsproblemen helfen, die ich möglicherweise habe? Welchen Wert haben diese Dienste? Weil ich aus meiner Überlegung weiß: Wenn ich ein paar Batterien einbaue und PG&E an die Tür klopft und sie sagen: „Ich möchte Ihre Batterien verwalten.“ Ich denke, verschwinde. Wenn sie auftauchen und sagen: „Ich habe ein Programm, mit dem wir Sie automatisch für die Nutzung dieser Batterien bezahlen können, manchmal auf eine Art und Weise, die Ihre Nutzung dieser Batterie nicht beeinträchtigt“, dann habe ich ein gutes Gefühl bei PG&E , was eine separate Frage ist. Ich könnte dazu ja sagen. Das ist keine unvernünftige Sache. Batterien sind teuer, ich möchte vielleicht die Kosten tragen. Wenn ich bei jedem Modell über Kontrolle spreche, bedenken Sie, dass wahrscheinlich ein sehr großer Teil davon auch preissignalgesteuert ist. Oder Sie bieten letztendlich den Besitzern von Ressourcen oder Aggregatoren von Ressourcen Geld an, um Dienste aus diesen Ressourcen zu erhalten. Es ist so etwas wie ein sekundäres oder indirektes Betriebssignal. Dennoch ein Teil des Gefüges des Netzes der Zukunft.

Wir haben ein Vertrauensproblem. Ich stelle mir Vertrauen gerne als eine Leiter vor. Ich habe viele von Menschen gesteuerte Prozesse automatisiert. Dies ist etwas, wozu wir bei Google viel Gelegenheit hatten, da die Dinge um das 10-fache, 100-fache, 1.000-fache, millionenfache wuchsen, weil die Komplexität des Systems immer schneller wächst als die Fähigkeit der Menschen, darüber nachzudenken. Es ist sehr wertvoll, über ein paar einfache Steuerelemente zu verfügen, auf die sich ein Bediener verlassen kann, die er auf vorhersehbare Weise verwenden kann und deren Ergebnisse er versteht. Jedes Mal, wenn Sie etwas hinzufügen oder etwas automatisieren, was sie bereits tun, gehen Sie nicht einfach hinein und sagen: „Ich habe es für Sie gelöst. Das Problem wurde vollständig automatisiert.“ Wenn hier jemand das getan hat, wissen Sie, welche Antwort Sie vom Betriebsteam erhalten: Sie sagen: Raus. Man muss Stück für Stück kommen. Sie müssen es einfach halten. Sie müssen es vorhersehbar halten. Jeder Schritt muss nachvollziehbar und vertrauenswürdig sein.

Zurück zu unserem kleinen Modell des Gitters: Wenn wir ein wenig darüber wissen, was passiert, haben wir etwas, mit dem wir beginnen können, zu arbeiten. Weiß ich etwa, was in diesem Transformator passiert? Weiß ich, was an den Lastpunkten passiert, die die Probleme verursachen? Wie viel davon ist kontrollierbar? Habe ich ein paar Hebel? Damit können wir anfangen zu arbeiten. Denken Sie daran, dass das Ziel der Automatisierung dabei nicht unbedingt nur darin besteht, Dinge zu automatisieren oder Software zu schreiben oder was auch immer. Ziel ist es, den Menschen dabei zu helfen, das System zu verstehen und es weiterhin zu verstehen, wenn es sich verändert. Das Hinzufügen von Automatisierung auf eine mehrschichtige und prinzipielle Art und Weise führt tendenziell auch dazu, sich wirklich auf die Abstraktionsebenen abzubilden, oder es kann auf Abstraktionsebenen abgebildet werden, die auch dabei helfen, verständliche Systeme aufzubauen. Automatisierung ist dabei immer am besten.

Wir können die Leiter der Automatisierung oder des Vertrauens für ein einzelnes Gerät erklimmen. Ich kann sagen, ok, Batterie, ich vertraue darauf, dass Sie Ihre Arbeit vor Ort erledigen und das Stromnetz hier sichern. Der einfachste und vertrauenswürdigste Weg, dies zu erreichen, besteht darin, zu sagen: Ich habe eine Verbindungsstudie für diese Batterie durchgeführt und weiß, dass sie nicht in der Lage ist, mehr Energie auf einmal herauszudrücken, als dieser Transformator bewältigen kann. Das ist es, was die meisten Versorgungsunternehmen heute tun, um das Problem im Griff zu behalten. Das ist eine Standard-Sicherheitseinstellung. Da es jedoch immer mehr davon gibt und diese Upgrades sehr teuer werden, müssen Sie etwas Intelligenteres tun. Sie müssen wissen, wie hoch Ihre verfügbare Kapazitätszuteilung an einem bestimmten Punkt im Netz ist. Das kann ganz einfach sein. Das kann so sein, als hätte ich die Größe all dieser Batterien addiert und weiß, dass ich nur noch so viel übrig habe. Es kann auch etwas Anspruchsvolleres sein, und hier ist es wichtig, dass wir unsere Echtzeitdaten verarbeiten können. Denn wenn ich Echtzeitdaten über den Transformator erhalten oder diese synthetisieren kann, kann ich mir eine Vorstellung von der Kapazitätszuweisung machen, die außerhalb von Spitzenzeiten im Allgemeinen sicher ist, und dann kann ich damit beginnen, diese unter den Personen aufzuteilen, die sie nutzen müssen Es. Jetzt kann ich den Bedienern sicher die Möglichkeit geben, über diese Geräte hinaus Anrufe zu tätigen, zusätzlich zu der täglichen Arbeit, die die Geräte erledigen. Das einfachste Modell hierfür besteht einfach darin, zu einem bestimmten Zeitpunkt Energie herauszuholen oder Energie einzuspeisen. Es wäre so: Bitte laden Sie während der Sonnenspitze auf, entladen Sie es bitte abends während der Lastspitze. Sobald Sie die sichere Standardannahme haben, dass das Gerät beim Aufrufen nichts in die Luft jagt, haben Sie die Möglichkeit, es dazu zu bringen, andere Aufgaben für Sie zu erledigen. Es ist jetzt vertrauenswürdiger.

Dadurch können Sie nicht nur die Geräteebene, sondern auch die Systemebene betrachten. Jetzt wissen wir, wie hoch meine Kapazität auf der gesamten Upline-Strecke ist, vom Transformator über den Leiter, der die Leitung darstellt, über die Upline-Transformatoren bis zum Einspeisekopf und zum Umspannwerk. Ich kann eine dynamische Zuweisung bereitstellen, die es mir grundsätzlich ermöglicht, mit der Virtualisierung meiner Netzwerkkapazität zu beginnen. Dies ist nicht das, was wir heute im Netz tun, aber wir hoffen, es in naher Zukunft tun zu können. Dies ist der nächste Schritt, nämlich die Möglichkeit zu haben, diese Geräte zu verwalten und sie auf eine Art und Weise zu nutzen, die die Grenzen auf der gesamten Linie respektiert. Dann müssen wir in der Lage sein, dies auf eine Weise zu tun, die die kollektive Kapazität des Netzes verwaltet und gleichzeitig Dienste in Anspruch nimmt. Dann können wir mit Dingen wie der Orchestrierung beginnen. Ich betrachte Orchestrierung wirklich als kollektives Management, um ein Ziel zu erreichen. Es geht nicht nur um die Frage: Kann ich ein Gerät ein- und ausschalten oder verhindern, dass es einen Transformator in die Luft jagt? Es geht wirklich darum, ob ich diese Gruppe von Vermögenswerten gemeinsam betrachten und auf eine Art und Weise nutzen kann, die etwas an dem System optimiert, das ich optimieren möchte, nämlich Kosten, CO2, in diesen speziellen Fällen, und gleichzeitig die Zuverlässigkeit beizubehalten. Dies ist die grundlegende Automatisierungseinheit, die wir für das zukünftige Netz benötigen.

Um auf unsere Frage zurückzukommen: Ja, natürlich kann Software vertrauenswürdig sein. Wir machen das jeden Tag. Dies ist die Arbeit der meisten Menschen in diesem Raum. Wir wissen, dass es Vorbehalte geben kann. Es bedeutet einfach, die Arbeit zu erledigen. Es geht jedoch nicht nur um die technische Arbeit, und das ist hier der wirklich wichtige Teil. Es bedeutet auch, dass die Systeme funktionieren. Eine wichtige Randbemerkung ist, dass, wenn Sie auf Systemebene arbeiten, Systeme verwendet werden, die eine sehr geringe Fehlertoleranz aufweisen, und das gilt für Dinge wie selbstfahrende Autos, für Luft- und Raumfahrtanwendungen, selbstlandende Raketen usw Die Rolle der Simulationsumgebung gewinnt zunehmend an Bedeutung. Wenn Sie in freier Wildbahn nicht sicher testen können, müssen Sie in der Simulation testen. Dies war eine wirklich wichtige Lektion beim Übergang von einer Umgebung wie Google, in der man im Allgemeinen in freier Wildbahn testen kann, zu etwas wie Raketentechnik oder dem Grid. Ich habe tatsächlich ziemlich viel Zeit damit verbracht, mit einem Freund zu sprechen, der sich mit Anwendungen in der Luft- und Raumfahrt beschäftigt, um zu verstehen, welche Rolle Simulation und Gewährleistung der Sicherheit in einem gefährlichen physikalischen System spielen sollten.

Sobald Sie das verstanden haben, ist der Prozess der Einführung von Änderungen in einem großen physischen System wie dem Grid sehr ähnlich wie die Einführung von Änderungen in einer Softwareumgebung mit verteilten Systemen. Du wirst es testen. Du wirst es kanarisch machen. Sie werden es langsam bereitstellen. Du wirst es überwachen. Jetzt verfügen Sie über ein wiederholbares Muster, mit dem Sie beginnen können, sich in einer softwaregesteuerten Grid-Management-Umgebung im großen Maßstab mit Veränderungen auseinanderzusetzen. Wenn Sie neugierig sind, wo wir damit stehen: Wir haben mehrere Grids, die mit der in diesem Modell enthaltenen Steuerung in Betrieb sind. Dies hat sich in der Grid-Landschaft als sehr nützlich erwiesen und ist meiner Meinung nach eine wirklich wichtige Erkenntnis, die wir aus dem Bereich der verteilten Systeme mitgebracht haben.

Dies eröffnet die Möglichkeit, sich wirklich mit der Automatisierung im großen Maßstab zu befassen. Letztendlich wird das groß sein. Das ist zwar noch nicht der Fall, aber es muss so sein, um das vor uns liegende Problem zu lösen. Wir brauchen Millionen von Geräten. Wir brauchen viel Ladungswachstum. Wir brauchen viel Flexibilität. Es muss einfach sein. Wenn wir uns damit befassen und über die Arten von Mustern nachdenken, die die Skalierung verteilter Systeme vorhersehbar, zuverlässig, verwaltbar und letztendlich einfach machen, betrachten wir die Einheit einer Clusterbereitstellung, eines Rechenzentrums oder einer Region. oder ein Dienst, der über mehrere Regionen verteilt ist. Sie fangen an, darüber nachzudenken, was diese Einheiten des Selbstmanagements oder der Resilienz sind, die es Ihnen ermöglichen, darüber nachzudenken, und zwar nicht als einen Haufen Schrottteile, sondern als ein System, über das Sie nachdenken können. Dabei könnte man im Grunde einige Teile davon einstellen und davon ausgehen, dass sie über einen Zeitraum hinweg nahezu autark laufen und nur gelegentliche Bedienereingriffe erfordern. Beginnen Sie damit, sich Regionen innerhalb des Rasters als eine Art Bereitstellung eines Dienstes auf Clusterebene vorzustellen. Wenn sie in der Lage sind, nach einer konsistenten Richtlinie innerhalb der lokalen Ressourcenmenge zu arbeiten, ist dies eine Art und Weise, über die Grid-Skala nachzudenken, die sich meiner Meinung nach ziemlich gut von der verteilten Systemumgebung bis hin zur vollständigen Grid-Umgebung abbilden lässt. Das bin auch nicht nur ich. Dies ist eine ziemlich aktive Forschungsrichtung unter Netzforschern und Versorgungsunternehmen. Dies ist das Modell, von dem wir glauben, dass es funktionieren kann und funktionieren wird, nämlich die Idee eines fraktalen Gitters oder eines hierarchischen Gitters.

Entscheidend für die Flexibilität, die erforderlich ist, um aus all diesen unterschiedlichen Diensten nützliche Ergebnisse zu erzielen, ist jedoch eine leicht vom Bediener steuerbare Flexibilitätsressource. An dieser Stelle möchte ich auf die Idee des Cachings zurückkommen. Als wir uns anschauten, was nötig war, um unsere verteilten Systeme im Bereich Webdienste oder Internetdienste zu skalieren, begannen wir mit einem sehr zentralisierten Modell der Kapazitätszuweisung oder Bereitstellungskapazität. Sie haben ein großes Rechenzentrum, in das Sie die gesamte Last verlagern. Möglicherweise haben Sie ein zweites als Backup. Wenn Sie über mehrere Rechenzentrumsstandorte nachdenken, denken Sie auch an Dinge wie n plus 1 Kapazität und Failover-Kapazität. Zunächst beginnen Sie mit etwas relativ Einfachem. Hier befindet sich im Grunde das Gitter heute. Ein paar große Generatoren, n plus 1. Die Planung für n plus 1 und n plus 2 ist im Netz wie auch bei verteilten Systemen eine wirklich große Sache. Sie werden heute die Auslastung des Netzes prognostizieren und die Erzeugung je nach Bedarf hoch- oder herunterfahren.

Um auf unser Beispiel verteilter Systeme zurückzukommen: Wenn die Nachfrage steigt, besteht der erste Schritt darin, mehr Kapazitätsstandorte, mehr Rechenzentren und mehr Computer hinzuzufügen. Der nächste Schritt, fast unmittelbar danach oder daneben, ist die Idee des Cachings, also die Möglichkeit, über einige Ressourcen mit geringem Rechenaufwand und optimalen Rechenkosten zu verfügen, die einen Teil Ihres Datenverkehrs verarbeiten können. An dem Punkt, an dem die Einschränkung nicht die CPU oder die bereitstellende Ressource betrifft, sondern das Netzwerk selbst, ändert sich die Rolle des Caches. Das ist der Punkt, an dem wir bei Google in unseren Anfangstagen, als wir uns mit Skalierungsproblemen befassten, tatsächlich mit kapazitätsbeschränkter Skalierung zu tun hatten, da die eingeschränkte Ressource Rechenleistung für die Websuche war. Der Bandbreitenanteil davon ist sehr gering, eine Websuchanfrage oder -antwort ist nicht besonders groß. Als YouTube auf den Markt kam, hatten wir plötzlich ein anderes Problem. Jetzt ist es ein Netzwerkkostenproblem. Für Google war dies zu 100 % auf die zuverlässige Bereitstellung von Katzenvideos zurückzuführen, was für uns alle sehr wichtig ist. Ich mag auch Hundevideos.

Dies ist der Punkt, an dem wir begannen, uns mit einer verteilten Edge-Caching-Schicht zu befassen. Dies gab Google im Grunde die Möglichkeit, Caching nicht nur zur Deckung der Netzwerkkosten zu nutzen, sondern auch zu verhindern, dass diese Anfrage das gesamte Netzwerk durchquert. Beginnen Sie außerdem damit, Caching als Flexibilitätsfaktor zu nutzen, der die Zuverlässigkeit des Systems aus Benutzersicht erhöht. Wenn Sie es aus der Sicht des Benutzers betrachten, könnte Ihre Verbindung zum Netzwerk manchmal unterbrochen sein, Sie können jedoch ein Ergebnis aus Ihrem Browser-Cache erhalten. Möglicherweise ist die Verbindung Ihres Internetdienstanbieters mit dem Netzwerk unterbrochen, oder Google ist möglicherweise für eine Sekunde ausgefallen oder flackert oder so etwas. Das kann gelegentlich passieren, aber Sie können eine Antwort von einem lokalen Cache erhalten, wenn dort eine Antwort verfügbar ist. Es ist kein Ersatz für die Zuverlässigkeit der zentralen Ressourcen, sondern etwas, das diese wesentlich steigert. Beginnen wir mit der Einrichtung dieser Edge-Caching-Ebenen und gehen wir von einem Punkt bei Google aus, wo wir im Wesentlichen ein zentrales Bereitstellungssystem bei Five Nines, einschließlich des Netzwerks, verwalteten. Das System war letztlich besser als Six Nines, zuverlässig und effektiv 100 % aus Benutzersicht. Es gibt keinen Grund, warum das so bleiben muss, aber das war ein Ergebnis dieses Systems.

Wenn wir beginnen, dies aus der Rasterperspektive zu betrachten, was ist ein Cache? Eine Batterie ist ein Cache. Wenn man über die Rolle von Batterien im zukünftigen Netz nachdenkt, geht es nicht nur um die Energiespeicherung und die Möglichkeit, diese Solarenergie zu speichern und später wieder zu nutzen. Es geht auch darum, die Flexibilität bereitzustellen, die es uns ermöglicht, das Netzwerk viel effizienter zu nutzen und auch viel mehr Kontrolle und viel mehr Fehlerspielraum für die von uns bereitgestellte Kontrolle zu bieten. Das ist etwas, von dem ich denke, dass es überraschende Ressourcen wirklich verändern wird. Das ist etwas, was wir heute in diesem Bereich beobachten können. Im Grenzfall beginnen wir, ein Modell des zukünftigen Gitters zu haben, das uns bekannt vorkommt. Wir verfügen über eine Reihe unabhängiger Bereitstellungsstandorte, die möglicherweise Richtlinien oder Updates oder was auch immer erhalten, um eine effektive kollektive Verwaltung auf Systemebene zu gewährleisten. Vielleicht können sie sich manchmal oder die meiste Zeit sogar vollständig isolieren. Hoffentlich können sie auch Netzwerkdienste bereitstellen, wenn sie dafür bezahlt werden.

Ich sage „hoffentlich“, denn es gibt ein Modell, bei dem auch das alles auseinanderbricht und die Wirtschaftlichkeit des kollektiven Stromnetzes unter dem Wunsch der Menschen zusammenbricht, einfach so hinzugehen und vor Ort ihre eigenen Kraftwerke zu bauen. Das wäre aus Sicht der Allmende-Tragödie schlecht, denn wenn man sich ein Netzmodell anschaut, das keinerlei wirtschaftliche zentrale Konnektivität bietet, hat man eine ganze Reihe von Menschen, die nicht mehr verbunden sind kann Dienstleistungen nicht mehr effektiv in Anspruch nehmen. Uns gefällt, dass das Grid-Modell verfügbar ist, weil wir damit viele Dinge optimieren können. Es optimiert die Nutzung des Netzwerks. Es optimiert den Einsatz der Ressourcen. Es ermöglicht uns, Energie von Orten, an denen der Wind weht, dorthin zu transportieren, wo er nicht scheint, und von Orten, an denen die Sonne scheint, dorthin, wo sie nicht scheint. Lassen Sie uns Ressourcen verschieben und für einen erheblichen Effizienzschub bei der Erzeugung und den Netzwerkressourcen sorgen. Es ist kein Standardergebnis, wir müssen es aufbauen, wenn wir wollen, dass es passiert.

Um es noch einmal auf den Punkt zu bringen: Warum reden wir überhaupt darüber? Dies ist keine akademische Übung. Das liegt nicht nur daran, dass wir wollen, dass die Menschen für die Nutzung ihrer Batterien bezahlt werden. Es liegt nicht nur daran, dass wir wollen, dass Transformatoren nicht explodieren. Denn wir brauchen wirklich die Flexibilität, die Kunden und Endverbraucher bieten, um die letzten 20 % der Dekarbonisierung des Netzes zu erreichen und unsere Energieversorgung zu verbessern. Wenn uns das gelingt, haben wir wirklich gute Chancen, unsere Fristen einzuhalten. Wir könnten es bis 2035 schaffen. Wir könnten es bis 2040 schaffen. 2040 ist nicht schlecht. 2030 wäre das Beste. Jeder Tag, den wir schaffen, ist ein weiterer Tag, an dem wir nicht mehr so ​​viel Kohlenstoff ausstoßen wie in der Vergangenheit, und es ist ein Schritt in eine bessere Zukunft.

Abschließend möchte ich nur darauf eingehen, ob wir irgendwann eine riesige KI haben werden, die das Stromnetz betreibt. Meine kurze Antwort darauf ist wahrscheinlich aus mehreren Gründen, dass es keine riesige KI gibt. Erstens sind Vorhersehbarkeit und Transparenz in einem System wie diesem, in dem es viele Teilnehmer gibt, wirklich wichtig. Es muss verständlich und vorhersehbar sein, und es muss auch etwas sein, bei dem insbesondere die finanziellen Auswirkungen der ergriffenen Maßnahmen sehr klar sind. Allerdings handelt es sich um ein sehr komplexes Problem. Es gibt viele Möglichkeiten für ML und KI, es besser zu machen. Letztendlich erwarte ich, dass die KI eine sehr große Rolle bei der Optimierung und Planung spielen wird und weiterhin die sich ändernden Muster des Energieverbrauchs verstehen und effektiv verwalten kann, um all die Dinge zu tun, die auf dieser Folie aufgeführt sind. Meine erfreuliche Botschaft ist, dass wir uns im Laufe der Zeit weiterentwickeln können. Wir können mit den Werkzeugen beginnen, die wir haben. Es gibt für jeden die Möglichkeit, wirklich interessante technische Arbeit in den Bereichen zu finden, in denen Sie sich mit dem Grid befassen möchten, sei es nur aus System- und Betriebsperspektive oder ob Sie ein KI- und ein ML-Forscher sind. und Sie sehen Möglichkeiten, den Betrieb dieser Systeme wirklich dramatisch zu verbessern.

Es gibt noch ein paar andere Ressourcen, die für Ingenieure, die im Klimabereich etwas verändern wollen, wirklich hilfreich sind. Wir sind nicht das einzige Unternehmen, das in diesem Bereich tätig ist, es gibt eine Reihe sehr guter Unternehmen. Ich möchte Sie wirklich dazu ermutigen, über einen Wechsel in die Klima- und Clean-Tech-Richtung nachzudenken, wenn Sie darüber nachdenken, wo Ihre Karriere in Zukunft hingehen soll. Denn es gibt keine wichtigere Arbeit, die wir heute erledigen können.

Weitere Präsentationen mit Transkripten ansehen

Aufgenommen am:

12. Mai 2023

von

Astrid Atkinson

Entdecken Sie neue Trends und Praktiken von Fachexperten. Verbessern Sie Ihre Fähigkeiten auf der QCon New York (13.–15. Juni 2023)!

Weitere Präsentationen mit Transkripten ansehen