2022 werden in Deutschland so viele Solarpaneele installiert wie noch nie. Die Branche ist dennoch krisengeplagt, weshalb die EU weitere Subventionen verabschieden will. Finanzminister Christian Lindner lehnt dieses Vorhaben ab.
In der Solarindustrie kann man gutes Geld verdienen. Voraussichtlich wird die Solarindustrie mindestens so groß wie Erdöl. Weil nach und nach soll ja Erdöl durch Solarenergie ersetzt werden. Und Erdöl ist ja riesig. Die Saudis schwimmen ja im Geld.
Andererseits ist der Markt schon heute von China dominiert, und das wird sich wohl kaum mehr aufholen lassen. Lohnt sich da der Versuch einer Aufholjagd?
wäre gut gewesen die hersteller schon nicht aus europa vertrieben zu haben, nun haben wir den salat. vielleicht könnte man noch was reißen, dafür dürften die chinesischen module aber hier eben nicht mehr so billig ankommen und die hier produziert sollten nicht teurer sein, als diese aktuell. dafür bräuchte man vermutlich zölle und subventionen…
"Lustiger"weise wehren sich dagegen so Unternehmen wie 1komma5grad. Die verdienen ihr Geld mit den billigen Chinapanels. Das Argument geht wie folgt:
Wir haben ein eingespieltes Sortiment, das auch von Kunden angefragt wird
Wenn es auf einmal Förderung für inländisch produzierte Panels gibt werden Kunden ihre Bestellungen stornieren und auf diese Panels warten
Diese Panels wird es erstmal nicht in genug Kapazität geben
Das ganze führt zu einem Stop-And-Go und am Ende ist weniger Solar verbaut als ohne die Förderung
Wie Stichhaltig das jetzt ist… muss man selber wissen. Ich sehe da auf jedenfall, dass es vermutlich bessere Margen gibt wenn man die billigeren Chinaprodukte verbaut.
Ganz klares ja. Wie du sagst muss Solar Öl ersetzen. Für Öl werden selbstverständlich Kriege geführt, Demokratien gestürzt und Autokratische Regimes erhalten.
Wir müssen eine europäische Solarindsutrie haben, um strategisch nicht vollends abhängig zu werden. Deutschland war unendlich dumm, die eigen Solarindustrie zu opfern, damit VW & co. noch ein paar Jahre fette Rendite in China machen konnten. China hat dagegen Zukunftstechnologien identifiziert und systematisch aufgebaut.
Wenn wir da nicht machen, sollten wir schon mal anfangen Chinesisch als erste Fremdsprache in den Schulen zu lehren.
China hat gedroht Zölle auf den Import deutscher Autos zu erheben, falls Deutschland nicht die Solarsubventionen streicht und die EU Schutzzölle gegen Chinas ebenfalls stark subventionierte Solarindustrie erheben sollte.
Dann wurde binnen einer Woche beschlossen, der deutschen Solarindustrie die Subventionen zu streichen, und sie den Chinesen zu opfern. Das ging dann auch als Altmaier-Knick in die Geschichte der erneuerbaren Energien ein. Es gab dann noch einen zweiten Altmaier-Knick für Wind in 2017, der war aber um den CDU Großspender RWE zu schützen, damit die noch länger Braunkohle abbauen können.
Hmm, vom zeitlichen Ablauf haut das aber nicht so ganz hin. Dein 1. Link ist neuer als dein 2.
2012 kommt der Altmaierknick da die Energiewende zu teuer wird.
Durch den Wegfall der Förderungen werden deutsche Solarmodule teurer und haben immer weniger Chance gegen chinesische. Daher kommt 2013 ein Zoll auf chinesische Module.
Dieser wird dann zurückgenommen da sonst unsere Autos von den Chinesen bezollt werden.
Damit wurde der Altmaierknick sicherlich befördert, der Wegfall der Subventionen war jedoch bereits vorher.
Hmm, das ist ja hochinteressant. Davon wusste ich gar nichts. Das muss ich mir noch einmal durch den Kopf gehen lassen. Danke jedenfalls für die Links.
Es tut mir seelisch weh, aber ich muss Lindner hier zustimmen. Wobei halt auch die Frage ist, zu welchem Ziel man Subventionieren will und wielange. Geht es hier um Klimaschutz (also möglichst günstig, viel erneuerbare Energie), lokale Arbeitsplätze oder um Technologie-Souveränität/reduzierte Abhängigkeit?
Für kosteneffizienten Klimaschutz sind die Subventionen verschwendetes Geld, das man woanders nutzen könnte. Der Markt ist überschwemmt mit günstigen Solarpanelen aus China. Günstiger wird es nicht und es mangelt auch nicht an Fertigungskapazität. Woran es wahrscheinlich eher hakt beim Ausbau ist Bürokratie und Montagekapazitäten, nicht an den Modulen selbst. Und die Technologie ansich ist auch jetzt schon günstiger als fossile Alternative.
Was Arbeitsplätze angeht ist denke ich ein großer Teil eh in der Montage, der ist also eh schon hier und kann garnicht ausgelagert werden. Die Fabriken selbst schaffen glaube ich garnicht soviele Arbeitsstellen und haben wie im Artikel erwähnt auch keine nennenswerten Lieferketten, wo es Synergien für uns gäbe. Wenn es nur Subventionen gibt ohne sonstige Änderungen (z.B. Strafzölle, was wiederum die Panels teurer machen würde und so dem Klimaschutz schadet), dann wären das sehr teure Arbeitsplätze und mussten permanent bezuschusst werden um sich im Markt zu halten.
Bezüglich Technologie: Wie im Artikel erwähnt sind standard Solarpanele Massenware und keine Hochtechnologie. Wenn von Heute auf Morgen China keine Solarpanele mehr liefern würde, dann könnte man hier relativ schnell neue Kapazitäten schaffen. Das erfordert keine extreme Expertise oder geheimes Wissen. Man könnte also Geld auf das Problem werfen und würde schnell Resultate sehen. Anders als z.B. bei den erwähnten leeding-edge Chips, wo es weltweit nur drei Unternehmen (TSMC, Intel und Samsung) gibt, die zur Fertigung in der Lage sind. Da hat man nur die Wahl, dass eines der existierenden Unternehmen eine Fabrik für einen baut oder man müsste für extrem viel Geld über Jahrzente die Fähigkeiten selbst aufbauen. Infenion z.B. könnte man nicht einfach so ein paar Mrd geben um eine leeding-edge Foundry in Deutschland zu bauen.
Was erneuerbare Energie und heimische Produktion angeht sollten wir uns denke ich aktuell mehr auf Windkraft fokusieren. Durch die physische Größe steht man da wahrscheinlich nicht weltweit im Konkurrenzkampf, sondern nur regional. Auch hier liegen die Probleme denke ich aber weniger am Geld (schon jetzt rentabel), sondern mehr an Bürokratie und Infrastruktur.
Man sollte das Geld also nicht einfach an Unternehmen geben, sondern das Stromnetz ausbauen, mehr Bauplätze ausweisen und die Verzögerungen zwischen Planungsbegin und Bau durch Bürokratie reduzieren.
Gute Punkte, die du bringst. Ich möchte noch ergänzen:
Auf einige Jahre hin werden Solarpanels noch günstig bleiben. Teilweise unter Produktionskosten, da China massiv, staatlich bezuschusste (sic) Produktion aufgebaut hat. USA diese aber nicht mehr reinlässt und diese in Europas Häfen gedrückt werden. (Leute kauft euch Balkonkraftwerke -jetzt spottbillig)
Hauptproblem der Windenergie als auch alle EEG Projekte, sind die gestiegenen Zinsen
Windenergie offshore (aufm Meer) gibt es nur in Europa, da sind wir Marktführer
Man sollte nicht Solarpanelherstellung, sondern eher Netztechnik, -steuerung, -speicherung und -synchronisierung fördern. Da passiert grade viel unter der Haube und das ist viel näher an Deutschlands Kernkompetenz weil Maschinentechnik und Ingenieurskunst. Ist halt schon EE Phase 2 - Umbau der Netzwerke.
Energiespeicherung ist nicht nur Akkubatterie, da gibt es noch viel Vorsprung zu holen.
Das mit den Zinsen ist ein guter Punkt, den ich übersehen hatte. Und bei den beiden letzten Punkten kann ich dir auch Absolut zustimmen, das ist worauf wir uns eher fokusieren müssten.
Windenergie offshore (aufm Meer) gibt es nur in Europa, da sind wir Marktführer
Hier ist vielleicht die Frage ob man gesamtheitlich Europa oder spezieller an die deutsche Position denkt. Hier sehe ich aus deutscher Sicht eher das Problem, dass wir besonders durch Bürokratie ins Hintertreffen im Vergleich mit unseren direkten Nachbarn geraten.
TLDR: Theoretisch ja, praktisch nein: Rechenleistung wird immer mehr in fast allen Wirtschaftsbereichen benötigt. Für Unternehmen im internationalen Wettbewerb wäre diese Lösung nicht praktikabel. Ind woher sollen die Massen anderer Chips kommen falls der Zugang zu leeding-edge chips wegfällt?
Prinzipiell ist es korrekt, dass auch Prozessoren die auf älteren Fertigungsprozessen beruhen dieselben Berechnungen durchführen könnten nur ineffizienter. Und mit mehr Chips könnte man das ganze beschleunigen.
Die Frage ist allerdings wie realistisch diese Alternative ist, vor allem im Kontext wirtschaftlicher Wettbewerbsfähigkeit. Mehr Prozessoren (für die gleiche Leistung) bedeuten ja auch nicht nur das mehr Chips benötigt werden, sondern auch mehr Energieverbrauch, mehr Server hardware, Kühlung, Gebäude und so weiter. Das macht Kostenmäßig massive Unterschiede und die Technik entwickelt sich extrem schnell weiter (siehe Moor’s Law).
Rechenleistung wird heutzutage überall in immer weiter wachsendem Maße benötigt. Nicht nur für den aktuellen Hype mit AI und Large Language Models wie ChatGPT, sondern in praktisch allen Wirtschaftsbereichen. Zum Beispiel in der Pharmaindustrie (siehe projekte wie Alphafold), überall in der Industrie wo du etwas simulieren musst wie Aerodynamik oder Materialeigenschaften und letztlich überall wo Daten anfallen und man Trends erkennen und optimieren will. Unternehmen die im internationalen Wettbewerb stehen und nur Zugang zu langsameren Chips hätten, würden es extrem schwer haben konkurenzfähig zu bleiben.
Das ist also gesamwirtschaftlich relevant und im Vergleich zur Solarindustrie gibt es hier auch eine erheblich größere Lieferkette, anderweitig verflochtene Unternehmen, gutbezahlte Jobs und Know-How, welche man durch den Bau einer Fab versuchen kann anzusiedeln.
Davon abgesehen stellt sich natürlich auch die simple Frage: Wenn wir aus irgendeinem grund keine leeding-edge Chips bekommen, woher sollen dann plötzlich die Massen an anderen Chips kommen?
Um den status quo der Chipherstellung ein bisschen zu beleuchten:
Es gibt Chips die auf älteren, größeren Prozessen basieren, welche vor allem im industriellen Rahmen (z.B. der Autoindustrie) Anwendung finden. Dort kommt es primär auf Kosten und Zuverlässigkeit an, weniger auf Rechenleistung oder Effizienz. In diesem Bereich gibt es mehr unterschiedliche Hersteller. Wie ein Angebotsschock hier aussieht haben wir z.B. durch Corona erlebt, wodurch die Montagebänder aufgrund von Chip-Mangel teilweise still standen und Preise massiv nach oben gingen. Aus diesem Grund wird TSMC in Kooperation mit Bosch und Infenion wahrscheinlich auch subventioniert eine Fab (glaube für 28nm) hier in Deutschland bauen.
Was die Herstellung moderner Chips (damit meine ich nicht nur die absolute leeding edge, sondern auch was ein paar generationen älter ist wie z.B. 10nm) angeht haben wir in Europa glaube ich nur Intel Fabs in Irland. Ansonsten ist die meiste Kapazität in Taiwan, gefolgt von den USA, Korea, China und Israel (intel).
Man würde heutzutage wohl eher keine “mittleren” 7nm oder 10nm Fabriken neu bauen, weil es nicht wirtschaftlich wäre. Zu schlecht für high end Chips und zu teuer für simplere Anwendugen. Vor allem weil ja existierende Kapazitäten frei werden, sobald das nächst bessere bereit ist. Wenn man neu baut ist es also entweder leeding edge oder das was TSMC baut für die Industrie, nicht was dazwischen liegt.
Wobei eine Fabrik nicht konstant geupgraded wird, also nicht permanent an der absoluten leeding edge bleibt. Sobald eine Fab am start ist läuft das erstmal auf dem festgelegten Fertigungsprozess (mit vllt kleinen updates) weiter. Bis sie irgendwann zu alt ist und es wirtschaftlicher ist zu upgraden (weil ein komplett neuer Standort noch teurer wäre als der Kapazitätsverlust durch den Austausch der existierenden Geräte).
Wir subventionieren also garnicht unbedingt speziell nur den Bau einer absoluten leeding edge Fabrik, sondern generell Kapazitäten für moderne Chips und das Know-How diese unabhängig Produzieren zu können. Und diese Notfalls dann auch ausbauen zu können und nicht von 0 zu starten zu müssen wenn es zuspät ist.
Man muss aber vielleicht noch erwähnen, dass wir in Europa mit Unternehmen wie ASML oder Zeiss absolut einzigartige und unersätzliche Unternehmen in der Semiconductor Lieferkette besitzen. Da stehen wir also nicht komplett nackt dar. Wir haben es halt nur leider Versäumt mit der Chip-Herstellung und damit Verbundenen Wertschöpfung am Ball zu bleiben.
Um ein den geopolitischen Hintergrund ein bisschen zu beleuchten:
Globale Krisen wie Corona, aber auch der potentielle Krieg zwischen Taiwan (wo ein Großteil der weltweiten Chip industrie angesiedelt ist) haben zu einem deglobaliserungs Denken weltweit geführt. Der Ausfall von Taiwans Chipindustrie z.B. würde jegliche bisherige Krise lächerlich aussehen lassen.
Ganz konkret z.B. hat die USA auch schon Ausfuhrverbote nach China für high end GPUs von Nvidia und Maschienen zur Chip Herstellung von ASML verhängt. Unter anderem deswegen versucht China schon relativ lange in diesem Bereich unabhängiger zu werden. Aber auch die USA subventionieren den Bau neuer Fabriken massive mit dem CHIPS Act und Japan versucht mit Rapidus leeding edge Fähigkeiten aufzubauen. Es folgen also nicht nur Deutschland/Europa sondern alle die es sich Leisten können diesem Trend.
Für Taiwan ist die Chipindustrie praktisch ihr bestes Schutzschild gegen China, da es die Unterstützung des Westens garantiert.
Globale Krisen wie Corona, aber auch der potentielle Krieg zwischen Taiwan (wo ein Großteil der weltweiten Chip industrie angesiedelt ist) haben zu einem deglobaliserungs Denken weltweit geführt. Der Ausfall von Taiwans Chipindustrie z.B. würde jegliche bisherige Krise lächerlich aussehen lassen.
Noch ein guter Punkt. Ich denke, man könnte den Unsicherheiten in der Lieferkette zum einen natürlich durch den Aufbau eigener Kapazitäten, zum anderen auch durch hoarding (also Lager befüllen) begegnen. So wie wir es derzeit mit den billigen chinesischen Solarzellen machen.
Danke für den Link über Solarzellen, definitiv interssant zu lesen.
Zur Alternative hoarding:
In einigen Bereichen mag das bis zu einem gewissen Grad gehen. Unter anderem für Waffensysteme (z.B. was für chips auch immer Taurus nutzt), Banken mit ihren Mainframes, kritische Infrastruktur wie Kraftwerke oder medizinische Geräte. Was diese aber alle gemein haben ist, dass es a) nicht primär auf rechenleistung ankommt, b) lange update cycles haben oder praktisch nie geändert werden sobald zertifiziert und c) nicht nicht in extremen Massen benötigt werden, sondern in relativ gut definiertem, bekannten Unfang.
Für den allgemeinen Bedarf an Rechenleistung und die Wirtschaft wird das so nicht funktionieren. Angefangen mit der Frage, was man denn lagern würde. “Chips” ist nicht nur ein Produkt sondern ein sehr weites Feld, da gibt es CPUs, GPUs, FPGAs oder auch hoch spezialisierte Produkte wie z.B. Cerebras wafer-scale engine.
Hier war ich unpräzise war in meinem letzten Kommentar, dass man es richtig ist, dass man einfach mehr Chips statt modernerer nutzen könnte. CPUs als eine Art “jack of all trades, master of none” könnnten das (wobei es auch hier je nach anwendung Software translation layers bräuchte bzw legacy software umgeschrieben werden müsste), aber lägen in bestimmten Anwendugen soweit hinter spezialisierten Produkten zurück, dass sie kein praktiabler Ersatz wären. Wir müssten also Raten welche Chips in welchem Verhältnis relevant wären (und eventuell gäbe es neue, derzeit nicht existierende Lösungen). Im Falle des derzeitigen AI-Hypes z.B. wird in Zukunft mehr Leistung für Training oder Interference benötigt? Jenachdem wären unterschiedliche Chips wichtiger.
Die nächste Frage ist auch für welchen Zeitpunkt und welche “qualität” von Chips man denn einlagert. Der worst case wäre ja z.B. der Ausfall Taiwans durch Invasion Chinas. Aber wann? 2027, -30, -35? Und unabhängig von der Menge, die eingelagert würden: Man würde ja kaum die neuesten Chips kaufen, da viel zu teuer und verschwendung sie einzulagern, statt direkt zu nutzen wo es eh derzeit einen Mangel besonders bei GPUs gibt. Sondern ältere Chips (“schlechtere qualität”), die aber mit jedem Jahr weniger relevant werden. In gewisser weise (zumindest im hinblick auf die Rechenleistung relativ zu leeding edge produkten) also ein verderbliches Produkt sind, dass immer unrelevanter würde. Oder permanent teure Nachkäufe benötigen würde.
Wirtschaftlich also totale Geldverschwendung und sicher nicht günstiger als die Subvention einer neuen Fabrik, selbst wenn das 10mrd € sind. wobei man sich ja hier ja einen gewissen grad an ROI (return on investment) verspricht.
Davon abgesehen kann man garnicht soviel Einlagern wie die Wirtschaft bräuchte. Die US-Giganten sind vllt nicht vergleichbar mit unseren mickrigen Unternehmen, aber als Referenz Meta kauft mal eben für 10Mrd Nvidia GPUS quelle. Um einer Krise gegenzusteuern bei der längerfristig ein Angebotsverlust besteht (anders als die temporäre Corona Krise) würden gelagerte Chips selbst im besten Fall nur sehr kurzfristig helfen. Und dann müsste man wiederum eh Anfangen Kapazitäten aufzubauen. Was aber leider wiegesagt Jahre oder sogar Jahrzente dauern kann wenn man von nahe Null anfangen muss (anstatt existierende auszubauen und mit ausgebildeten Fachkräften).
Mehr Prozessoren (für die gleiche Leistung) bedeuten ja auch nicht nur das mehr Chips benötigt werden, sondern auch mehr Energieverbrauch, mehr Server hardware, Kühlung, Gebäude und so weiter. Das macht Kostenmäßig massive Unterschiede und die Technik entwickelt sich extrem schnell weiter (siehe Moor’s Law).
Also ich habe gerade nachgeschaut, und der Stromverbrauch würde beim Umstieg auf ARM z.B. nicht steigen, sondern eher sogar sinken. (siehe z.B. hier.
Man würde heutzutage wohl eher keine “mittleren” 7nm oder 10nm Fabriken neu bauen, weil es nicht wirtschaftlich wäre. Zu schlecht für high end Chips und zu teuer für simplere Anwendugen. Vor allem weil ja existierende Kapazitäten frei werden, sobald das nächst bessere bereit ist. Wenn man neu baut ist es also entweder leeding edge oder das was TSMC baut für die Industrie, nicht was dazwischen liegt.
Da stimme ich dir übrigens zu, das ist schön formuliert.
Also ich habe gerade nachgeschaut, und der Stromverbrauch würde beim Umstieg auf ARM z.B. nicht steigen, sondern eher sogar sinken. (siehe z.B. hier.
Das Instruction set hat nichts mit dem Fertigungsprozess zu tun und ist deswegen komplett unabhängig von diesem Problem.
ARM vs x84_64 oder RISC-V es gibt immer eine Abwägung zwischen Effizienz, maximaler Leistung und Kompatibilität mit alter Software. In der Praxis sind die meisten ARM Produkte definitiv mehr auf Effizienz getrimmt und x84_64 hat besonders Kompatibilität als Merkmal. Und dieser Punkt ist sehr relevant, sonst hätte es den von dir überlegten Umstieg schon längst gegeben und wir hätten keine x84_64 prozessoren mehr. Niemand will existierende Software umschreiben müssen, falls er es vermeiden kann. Translation layers die Kompatibilität schaffen könnten sind komplex und würden wohl jeden Vorteil vernichten.
Und wie im anderen Post erwähnt würde das ja z.B. nur für CPUs gelten, aber nicht den Rest (wo im moment besonders GPUs relevant sind).
Naja ich weiß ja nicht. Wie seht ihr das?
In der Solarindustrie kann man gutes Geld verdienen. Voraussichtlich wird die Solarindustrie mindestens so groß wie Erdöl. Weil nach und nach soll ja Erdöl durch Solarenergie ersetzt werden. Und Erdöl ist ja riesig. Die Saudis schwimmen ja im Geld.
Andererseits ist der Markt schon heute von China dominiert, und das wird sich wohl kaum mehr aufholen lassen. Lohnt sich da der Versuch einer Aufholjagd?
wäre gut gewesen die hersteller schon nicht aus europa vertrieben zu haben, nun haben wir den salat. vielleicht könnte man noch was reißen, dafür dürften die chinesischen module aber hier eben nicht mehr so billig ankommen und die hier produziert sollten nicht teurer sein, als diese aktuell. dafür bräuchte man vermutlich zölle und subventionen…
"Lustiger"weise wehren sich dagegen so Unternehmen wie 1komma5grad. Die verdienen ihr Geld mit den billigen Chinapanels. Das Argument geht wie folgt:
Wie Stichhaltig das jetzt ist… muss man selber wissen. Ich sehe da auf jedenfall, dass es vermutlich bessere Margen gibt wenn man die billigeren Chinaprodukte verbaut.
… die die eu nicht will weil klimaschutz. ja es ist be*ssen
Ganz klares ja. Wie du sagst muss Solar Öl ersetzen. Für Öl werden selbstverständlich Kriege geführt, Demokratien gestürzt und Autokratische Regimes erhalten.
Wir müssen eine europäische Solarindsutrie haben, um strategisch nicht vollends abhängig zu werden. Deutschland war unendlich dumm, die eigen Solarindustrie zu opfern, damit VW & co. noch ein paar Jahre fette Rendite in China machen konnten. China hat dagegen Zukunftstechnologien identifiziert und systematisch aufgebaut.
Wenn wir da nicht machen, sollten wir schon mal anfangen Chinesisch als erste Fremdsprache in den Schulen zu lehren.
Warum hat man ein paar Jahre fette Rendite in China gemacht? Ich verstehe den Zusammenhang nicht.
Ich denke mal, dass Solaranlagen Zukunftstechnologie sind, hatte man auch bei uns realisiert, sonst hätte man sie ja nicht gefördert.
China hat gedroht Zölle auf den Import deutscher Autos zu erheben, falls Deutschland nicht die Solarsubventionen streicht und die EU Schutzzölle gegen Chinas ebenfalls stark subventionierte Solarindustrie erheben sollte.
Dann wurde binnen einer Woche beschlossen, der deutschen Solarindustrie die Subventionen zu streichen, und sie den Chinesen zu opfern. Das ging dann auch als Altmaier-Knick in die Geschichte der erneuerbaren Energien ein. Es gab dann noch einen zweiten Altmaier-Knick für Wind in 2017, der war aber um den CDU Großspender RWE zu schützen, damit die noch länger Braunkohle abbauen können.
https://www.manager-magazin.de/unternehmen/autoindustrie/handelsstreit-china-droht-mit-zoll-gegen-europas-autos-a-904435.html
https://www.manager-magazin.de/politik/deutschland/a-838545.html
https://twitter.com/VQuaschning/status/1576620382114951168
Hmm, vom zeitlichen Ablauf haut das aber nicht so ganz hin. Dein 1. Link ist neuer als dein 2.
2012 kommt der Altmaierknick da die Energiewende zu teuer wird.
Durch den Wegfall der Förderungen werden deutsche Solarmodule teurer und haben immer weniger Chance gegen chinesische. Daher kommt 2013 ein Zoll auf chinesische Module. Dieser wird dann zurückgenommen da sonst unsere Autos von den Chinesen bezollt werden.
Damit wurde der Altmaierknick sicherlich befördert, der Wegfall der Subventionen war jedoch bereits vorher.
Der 07.06. ist früher als der 13.06. Der Artikel ist also sechs Tage älter.
Nur eben unterschiedliche Jahre ;) 07.06.2013 kommt nach 13.06.2012
Oh verdammt das hab ich verpeilt ^^
Hmm, das ist ja hochinteressant. Davon wusste ich gar nichts. Das muss ich mir noch einmal durch den Kopf gehen lassen. Danke jedenfalls für die Links.
Es tut mir seelisch weh, aber ich muss Lindner hier zustimmen. Wobei halt auch die Frage ist, zu welchem Ziel man Subventionieren will und wielange. Geht es hier um Klimaschutz (also möglichst günstig, viel erneuerbare Energie), lokale Arbeitsplätze oder um Technologie-Souveränität/reduzierte Abhängigkeit?
Für kosteneffizienten Klimaschutz sind die Subventionen verschwendetes Geld, das man woanders nutzen könnte. Der Markt ist überschwemmt mit günstigen Solarpanelen aus China. Günstiger wird es nicht und es mangelt auch nicht an Fertigungskapazität. Woran es wahrscheinlich eher hakt beim Ausbau ist Bürokratie und Montagekapazitäten, nicht an den Modulen selbst. Und die Technologie ansich ist auch jetzt schon günstiger als fossile Alternative.
Was Arbeitsplätze angeht ist denke ich ein großer Teil eh in der Montage, der ist also eh schon hier und kann garnicht ausgelagert werden. Die Fabriken selbst schaffen glaube ich garnicht soviele Arbeitsstellen und haben wie im Artikel erwähnt auch keine nennenswerten Lieferketten, wo es Synergien für uns gäbe. Wenn es nur Subventionen gibt ohne sonstige Änderungen (z.B. Strafzölle, was wiederum die Panels teurer machen würde und so dem Klimaschutz schadet), dann wären das sehr teure Arbeitsplätze und mussten permanent bezuschusst werden um sich im Markt zu halten.
Bezüglich Technologie: Wie im Artikel erwähnt sind standard Solarpanele Massenware und keine Hochtechnologie. Wenn von Heute auf Morgen China keine Solarpanele mehr liefern würde, dann könnte man hier relativ schnell neue Kapazitäten schaffen. Das erfordert keine extreme Expertise oder geheimes Wissen. Man könnte also Geld auf das Problem werfen und würde schnell Resultate sehen. Anders als z.B. bei den erwähnten leeding-edge Chips, wo es weltweit nur drei Unternehmen (TSMC, Intel und Samsung) gibt, die zur Fertigung in der Lage sind. Da hat man nur die Wahl, dass eines der existierenden Unternehmen eine Fabrik für einen baut oder man müsste für extrem viel Geld über Jahrzente die Fähigkeiten selbst aufbauen. Infenion z.B. könnte man nicht einfach so ein paar Mrd geben um eine leeding-edge Foundry in Deutschland zu bauen.
Was erneuerbare Energie und heimische Produktion angeht sollten wir uns denke ich aktuell mehr auf Windkraft fokusieren. Durch die physische Größe steht man da wahrscheinlich nicht weltweit im Konkurrenzkampf, sondern nur regional. Auch hier liegen die Probleme denke ich aber weniger am Geld (schon jetzt rentabel), sondern mehr an Bürokratie und Infrastruktur.
Man sollte das Geld also nicht einfach an Unternehmen geben, sondern das Stromnetz ausbauen, mehr Bauplätze ausweisen und die Verzögerungen zwischen Planungsbegin und Bau durch Bürokratie reduzieren.
Gute Punkte, die du bringst. Ich möchte noch ergänzen:
Siliziumkarbid eignet sich nicht als Solarzellenmaterial, da es ein indirekter Halbleiter ist und eine zu große Bandlücke aufweist :zwinkersmiley:
Das mit den Zinsen ist ein guter Punkt, den ich übersehen hatte. Und bei den beiden letzten Punkten kann ich dir auch Absolut zustimmen, das ist worauf wir uns eher fokusieren müssten.
Hier ist vielleicht die Frage ob man gesamtheitlich Europa oder spezieller an die deutsche Position denkt. Hier sehe ich aus deutscher Sicht eher das Problem, dass wir besonders durch Bürokratie ins Hintertreffen im Vergleich mit unseren direkten Nachbarn geraten.
Wozu brauchen wir eigentlich leeding-edge chips? Genügt es nicht, irgendwelche Chips zu nehmen, und dann notfalls halt mehr davon?
Meine Einschätzung als interessierter Laie:
TLDR: Theoretisch ja, praktisch nein: Rechenleistung wird immer mehr in fast allen Wirtschaftsbereichen benötigt. Für Unternehmen im internationalen Wettbewerb wäre diese Lösung nicht praktikabel. Ind woher sollen die Massen anderer Chips kommen falls der Zugang zu leeding-edge chips wegfällt?
Prinzipiell ist es korrekt, dass auch Prozessoren die auf älteren Fertigungsprozessen beruhen dieselben Berechnungen durchführen könnten nur ineffizienter. Und mit mehr Chips könnte man das ganze beschleunigen.
Die Frage ist allerdings wie realistisch diese Alternative ist, vor allem im Kontext wirtschaftlicher Wettbewerbsfähigkeit. Mehr Prozessoren (für die gleiche Leistung) bedeuten ja auch nicht nur das mehr Chips benötigt werden, sondern auch mehr Energieverbrauch, mehr Server hardware, Kühlung, Gebäude und so weiter. Das macht Kostenmäßig massive Unterschiede und die Technik entwickelt sich extrem schnell weiter (siehe Moor’s Law).
Rechenleistung wird heutzutage überall in immer weiter wachsendem Maße benötigt. Nicht nur für den aktuellen Hype mit AI und Large Language Models wie ChatGPT, sondern in praktisch allen Wirtschaftsbereichen. Zum Beispiel in der Pharmaindustrie (siehe projekte wie Alphafold), überall in der Industrie wo du etwas simulieren musst wie Aerodynamik oder Materialeigenschaften und letztlich überall wo Daten anfallen und man Trends erkennen und optimieren will. Unternehmen die im internationalen Wettbewerb stehen und nur Zugang zu langsameren Chips hätten, würden es extrem schwer haben konkurenzfähig zu bleiben.
Das ist also gesamwirtschaftlich relevant und im Vergleich zur Solarindustrie gibt es hier auch eine erheblich größere Lieferkette, anderweitig verflochtene Unternehmen, gutbezahlte Jobs und Know-How, welche man durch den Bau einer Fab versuchen kann anzusiedeln.
Davon abgesehen stellt sich natürlich auch die simple Frage: Wenn wir aus irgendeinem grund keine leeding-edge Chips bekommen, woher sollen dann plötzlich die Massen an anderen Chips kommen?
Um den status quo der Chipherstellung ein bisschen zu beleuchten:
Es gibt Chips die auf älteren, größeren Prozessen basieren, welche vor allem im industriellen Rahmen (z.B. der Autoindustrie) Anwendung finden. Dort kommt es primär auf Kosten und Zuverlässigkeit an, weniger auf Rechenleistung oder Effizienz. In diesem Bereich gibt es mehr unterschiedliche Hersteller. Wie ein Angebotsschock hier aussieht haben wir z.B. durch Corona erlebt, wodurch die Montagebänder aufgrund von Chip-Mangel teilweise still standen und Preise massiv nach oben gingen. Aus diesem Grund wird TSMC in Kooperation mit Bosch und Infenion wahrscheinlich auch subventioniert eine Fab (glaube für 28nm) hier in Deutschland bauen.
Was die Herstellung moderner Chips (damit meine ich nicht nur die absolute leeding edge, sondern auch was ein paar generationen älter ist wie z.B. 10nm) angeht haben wir in Europa glaube ich nur Intel Fabs in Irland. Ansonsten ist die meiste Kapazität in Taiwan, gefolgt von den USA, Korea, China und Israel (intel).
Man würde heutzutage wohl eher keine “mittleren” 7nm oder 10nm Fabriken neu bauen, weil es nicht wirtschaftlich wäre. Zu schlecht für high end Chips und zu teuer für simplere Anwendugen. Vor allem weil ja existierende Kapazitäten frei werden, sobald das nächst bessere bereit ist. Wenn man neu baut ist es also entweder leeding edge oder das was TSMC baut für die Industrie, nicht was dazwischen liegt.
Wobei eine Fabrik nicht konstant geupgraded wird, also nicht permanent an der absoluten leeding edge bleibt. Sobald eine Fab am start ist läuft das erstmal auf dem festgelegten Fertigungsprozess (mit vllt kleinen updates) weiter. Bis sie irgendwann zu alt ist und es wirtschaftlicher ist zu upgraden (weil ein komplett neuer Standort noch teurer wäre als der Kapazitätsverlust durch den Austausch der existierenden Geräte).
Wir subventionieren also garnicht unbedingt speziell nur den Bau einer absoluten leeding edge Fabrik, sondern generell Kapazitäten für moderne Chips und das Know-How diese unabhängig Produzieren zu können. Und diese Notfalls dann auch ausbauen zu können und nicht von 0 zu starten zu müssen wenn es zuspät ist.
Man muss aber vielleicht noch erwähnen, dass wir in Europa mit Unternehmen wie ASML oder Zeiss absolut einzigartige und unersätzliche Unternehmen in der Semiconductor Lieferkette besitzen. Da stehen wir also nicht komplett nackt dar. Wir haben es halt nur leider Versäumt mit der Chip-Herstellung und damit Verbundenen Wertschöpfung am Ball zu bleiben.
Um ein den geopolitischen Hintergrund ein bisschen zu beleuchten:
Globale Krisen wie Corona, aber auch der potentielle Krieg zwischen Taiwan (wo ein Großteil der weltweiten Chip industrie angesiedelt ist) haben zu einem deglobaliserungs Denken weltweit geführt. Der Ausfall von Taiwans Chipindustrie z.B. würde jegliche bisherige Krise lächerlich aussehen lassen.
Ganz konkret z.B. hat die USA auch schon Ausfuhrverbote nach China für high end GPUs von Nvidia und Maschienen zur Chip Herstellung von ASML verhängt. Unter anderem deswegen versucht China schon relativ lange in diesem Bereich unabhängiger zu werden. Aber auch die USA subventionieren den Bau neuer Fabriken massive mit dem CHIPS Act und Japan versucht mit Rapidus leeding edge Fähigkeiten aufzubauen. Es folgen also nicht nur Deutschland/Europa sondern alle die es sich Leisten können diesem Trend.
Für Taiwan ist die Chipindustrie praktisch ihr bestes Schutzschild gegen China, da es die Unterstützung des Westens garantiert.
Noch ein guter Punkt. Ich denke, man könnte den Unsicherheiten in der Lieferkette zum einen natürlich durch den Aufbau eigener Kapazitäten, zum anderen auch durch hoarding (also Lager befüllen) begegnen. So wie wir es derzeit mit den billigen chinesischen Solarzellen machen.
Danke für den Link über Solarzellen, definitiv interssant zu lesen.
Zur Alternative hoarding:
In einigen Bereichen mag das bis zu einem gewissen Grad gehen. Unter anderem für Waffensysteme (z.B. was für chips auch immer Taurus nutzt), Banken mit ihren Mainframes, kritische Infrastruktur wie Kraftwerke oder medizinische Geräte. Was diese aber alle gemein haben ist, dass es a) nicht primär auf rechenleistung ankommt, b) lange update cycles haben oder praktisch nie geändert werden sobald zertifiziert und c) nicht nicht in extremen Massen benötigt werden, sondern in relativ gut definiertem, bekannten Unfang.
Für den allgemeinen Bedarf an Rechenleistung und die Wirtschaft wird das so nicht funktionieren. Angefangen mit der Frage, was man denn lagern würde. “Chips” ist nicht nur ein Produkt sondern ein sehr weites Feld, da gibt es CPUs, GPUs, FPGAs oder auch hoch spezialisierte Produkte wie z.B. Cerebras wafer-scale engine.
Hier war ich unpräzise war in meinem letzten Kommentar, dass man es richtig ist, dass man einfach mehr Chips statt modernerer nutzen könnte. CPUs als eine Art “jack of all trades, master of none” könnnten das (wobei es auch hier je nach anwendung Software translation layers bräuchte bzw legacy software umgeschrieben werden müsste), aber lägen in bestimmten Anwendugen soweit hinter spezialisierten Produkten zurück, dass sie kein praktiabler Ersatz wären. Wir müssten also Raten welche Chips in welchem Verhältnis relevant wären (und eventuell gäbe es neue, derzeit nicht existierende Lösungen). Im Falle des derzeitigen AI-Hypes z.B. wird in Zukunft mehr Leistung für Training oder Interference benötigt? Jenachdem wären unterschiedliche Chips wichtiger.
Die nächste Frage ist auch für welchen Zeitpunkt und welche “qualität” von Chips man denn einlagert. Der worst case wäre ja z.B. der Ausfall Taiwans durch Invasion Chinas. Aber wann? 2027, -30, -35? Und unabhängig von der Menge, die eingelagert würden: Man würde ja kaum die neuesten Chips kaufen, da viel zu teuer und verschwendung sie einzulagern, statt direkt zu nutzen wo es eh derzeit einen Mangel besonders bei GPUs gibt. Sondern ältere Chips (“schlechtere qualität”), die aber mit jedem Jahr weniger relevant werden. In gewisser weise (zumindest im hinblick auf die Rechenleistung relativ zu leeding edge produkten) also ein verderbliches Produkt sind, dass immer unrelevanter würde. Oder permanent teure Nachkäufe benötigen würde.
Wirtschaftlich also totale Geldverschwendung und sicher nicht günstiger als die Subvention einer neuen Fabrik, selbst wenn das 10mrd € sind. wobei man sich ja hier ja einen gewissen grad an ROI (return on investment) verspricht.
Davon abgesehen kann man garnicht soviel Einlagern wie die Wirtschaft bräuchte. Die US-Giganten sind vllt nicht vergleichbar mit unseren mickrigen Unternehmen, aber als Referenz Meta kauft mal eben für 10Mrd Nvidia GPUS quelle. Um einer Krise gegenzusteuern bei der längerfristig ein Angebotsverlust besteht (anders als die temporäre Corona Krise) würden gelagerte Chips selbst im besten Fall nur sehr kurzfristig helfen. Und dann müsste man wiederum eh Anfangen Kapazitäten aufzubauen. Was aber leider wiegesagt Jahre oder sogar Jahrzente dauern kann wenn man von nahe Null anfangen muss (anstatt existierende auszubauen und mit ausgebildeten Fachkräften).
Also ich habe gerade nachgeschaut, und der Stromverbrauch würde beim Umstieg auf ARM z.B. nicht steigen, sondern eher sogar sinken. (siehe z.B. hier.
Da stimme ich dir übrigens zu, das ist schön formuliert.
Das Instruction set hat nichts mit dem Fertigungsprozess zu tun und ist deswegen komplett unabhängig von diesem Problem.
ARM vs x84_64 oder RISC-V es gibt immer eine Abwägung zwischen Effizienz, maximaler Leistung und Kompatibilität mit alter Software. In der Praxis sind die meisten ARM Produkte definitiv mehr auf Effizienz getrimmt und x84_64 hat besonders Kompatibilität als Merkmal. Und dieser Punkt ist sehr relevant, sonst hätte es den von dir überlegten Umstieg schon längst gegeben und wir hätten keine x84_64 prozessoren mehr. Niemand will existierende Software umschreiben müssen, falls er es vermeiden kann. Translation layers die Kompatibilität schaffen könnten sind komplex und würden wohl jeden Vorteil vernichten.
Und wie im anderen Post erwähnt würde das ja z.B. nur für CPUs gelten, aber nicht den Rest (wo im moment besonders GPUs relevant sind).