Zum Hauptinhalt springen

Was geht, was kommt, was bleibt? – Die Technik-Trends 2024

Prof. Dr. Kirsten Hermann  SRH Fernhochschule
Prof. Dr. Kirsten Hermann SRH Fernhochschule

Alle Jahre wieder … blicken die Analyst:innen von Gartner in ihre
Glaskugeln und verkünden die wichtigsten Tech-Trends, die uns in den
kommenden Monaten bevorstehen. Wie richtig sie damit liegen, haben wir
unsere Expert:innen für Wirtschaft, Unternehmensführung und Künstliche
Intelligenz gefragt. Ein Austausch mit hoher Schlagzahl über alles, was
2024 wichtig wird – oder auch nicht.

Frau Prof. Dr. Hermann, Herr Prof. Dr. Müller, Herr Dr. Konecny, bei
Gartner bündelt man die Top-10-Tech-Trends thematisch. Ganz oben steht,
wenig überraschend, die KI.

Dr. Konecny: Das Thema wird uns nicht mehr verlassen. Ich klettere über
Berge der Innovation: Ständig kommt auf uns Neues Wunderbares zu. Aber
auch Probleme gibt es genug, zum Beispiel beim Datenschutz. Open AI, der
Entwickler des Sprachmodells ChatGPT, wird jetzt in den USA von
Schriftsteller:innen verklagt, weil ihre Werke zu den Trainingsdatensätzen
dieses Modells gehören. Wie das urheberrechtlich zu beurteilen ist, ist
noch nicht klar.

Die Angst vor der KI greift um sich?

Dr. Konecny: Nicht ganz zu Recht. Es ist auch ein mediales Problem. Unsere
Bildung in Sachen Künstlicher Intelligenz kommt hauptsächlich aus
Hollywood. Ich sage immer: Maschinen sind auch nur Menschen. Denn hinter
der KI stehen „nur“ Maschinen, die von Menschen gemachte Daten vorgesetzt
bekommen. Es braucht also Kontrolle, aber wir sollten uns auch nicht so
empören. Wenn wir diese Modelle zurückweisen, dann entziehen wir sie auch
unserer Kontrolle, weil die Entwicklung dann woanders stattfindet.
Prof. Dr. Hermann: Dabei sollte es bei den Tech-Trends für das kommende
Jahr eigentlich darum gehen, welche Potenziale die KI den Unternehmen
tatsächlich bietet und wie sie diese nutzen können. Kurz: Wo ist der
Mehrwert?

Haben Sie die Antwort?

Prof. Dr. Hermann:  Er liegt jedenfalls nicht allein in der Optimierung
von etablierten Prozessen. KI kann auch Impulse und Inspirationen bieten,
um neue Arbeitsabläufe zu entwickeln und letztlich das
Unternehmenswachstum ankurbeln. Das ist aus Managementperspektive
entscheidend, weshalb sich Gartner mit seinen Top-Trends auch explizit an
die Entscheider:innen in der IT wendet.

Legen wir zu viel Fokus auf das Thema KI?

Prof. Dr. Müller: KI stellt nur einen Aspekt im Zuge der fortschreitenden
Digitalisierung dar. Wir verstehen Digitalisierung immer noch
technologisch, aber der große globale Shift, der gerade passiert, ist
ökonomisch getrieben. Wir erleben einen radikalen Umbruch des kompletten
globalen Wirtschaftssystems!

Inwiefern?

Prof. Dr. Müller: Die Entwicklung ist ohne Weiteres mit dem Umbruch von
der Agrarökonomie zur Industriellen Ökonomie zu vergleichen. Wir verfügen
über ausgeprägte Erfahrung und Kompetenz in der Praxis der Industriellen
Ökonomie, die zurück bis in die Ära der ersten industriellen Revolution
und die Zeit der Erfindung der Dampfmaschine reicht. Das können wir
richtig gut. Aber die Digitale Ökonomie ist neu. Wirtschaft, Industrie und
Gesellschaft stehen immer in Beziehung zueinander. Ändern sich die
Wertschöpfungssysteme, ändert sich auch alles andere. KI hat darauf großen
Einfluss. Aber gerade deshalb ist die ökonomische Perspektive so wichtig –
weil KI, wie alle neuen Technologien, irgendwann nur noch Basisforderung
sein wird.

Die Frage ist: Was passiert infolge des Einsatzes von KI mit Blick auf
Wertschöpfung?

Prof. Dr. Hermann: Dabei sind heutzutage noch weitere Aspekte zu
berücksichtigen. Nachhaltigkeit ist inzwischen ebenso obligatorisch wie
der Blick auf die wirtschaftliche Entwicklung. Die IT-Nutzung muss
effizienter, nachhaltiger und sicherer werden durch den Einsatz von KI.

Das scheint man bei Gartner ähnlich zu sehen. Ein Schwerpunkt der Trends
2024 liegt auf Sicherheit und Nachhaltigkeit.

Prof. Dr. Hermann: Wir erleben es im Austausch mit unseren Studierenden,
wie drängend diese Fragen sind. Wird der Datenschutz beachtet und wie
lässt sich das künftig sicherstellen? Wie steht es um die ethischen
Aspekte des Einsatzes von KI – Jaromir hatte das Beispiel der
Schriftsteller:innen genannt, die nun klagen. Es sind noch viele Fragen
offen, auch das ist leider ein „Trend“.

Wie sind Ihre Studierenden gegenüber der KI eingestellt?

Prof. Dr. Hermann: Glücklicherweise sehr offen, das gilt für praktisch
alle Fachrichtungen. Wenn ich auf meine MBA-Studierenden blicke, dann ist
da eine große Bereitschaft, auch zu experimentieren. Für manche stellt
sich ChatGPT heute so dar wie Google vor 20 Jahren. Manchmal bleibt es
dann - bei einer Art „Literaturrecherche extended“. Aber das ist wichtig.
So erfahren sie, dass es zum Beispiel gefährlich sein kann, Zitationen der
KI einfach für eine wissenschaftliche Arbeit zu übernehmen. Unsere
Studierenden lernen, wo die Grenzen von KI liegen und wie man sie trotzdem
sinnvoll einsetzt.

Dr. Konecny: Sicherheit und Nachhaltigkeit sind wichtig, keine Frage! Aber
ich habe die Sorge, dass wir in Deutschland bald Weltmeister werden im
Regulieren von KI-Modellen, die wir gar nicht haben!

Aber ohne Regulierung wird es nicht gehen, oder?

Dr. Konecny: Nein, deshalb haben sich Europaparlament und EU-Staaten nach
langen Verhandlungen Ende 2023 auch auf den "AI Act" verständigt. Darin
geht es unter anderem um die Qualität der Daten, um die Risiken von KI und
um das, eingangs erwähnte, Urheberrecht. Aber wir müssen abwägen. Staaten
wie die USA, China oder auch Russland werden wir nicht dazu bringen,
unsere Regulationsprinzipien auf ihre Modelle anzuwenden. Außerdem halte
ich manche Sorge vor der KI auch für übertrieben. Wir denken über Verbote
nach – entwickeln aber nach wie vor neue Atomwaffen. Da sollte man über
Verbote diskutieren! KI dagegen ist ein Werkzeug, das uns die Arbeit
erleichtern soll.

Prof. Dr. Müller: Regulierung ist aber doch ein Thema, dem wir uns stellen
müssen. In der Industriellen Ökonomie hat es noch gut funktioniert, wenn
nationale Regierungen den Rahmen für Unternehmen vorgaben. In der
Regulierung großer digitaler Plattformen oder auch Technologien wie der KI
kommen Staaten schnell an ihre Grenzen.  Der Versuch, auf europäischer
Ebene hier Antworten zu finden bzw. zu regulieren ist zu begrüßen, wird
den Herausforderungen aber nur schwer gerecht werden. In letzter
Konsequenz braucht es dazu supranationale Strukturen. Irgendeine Form der
Governance wird es geben müssen. Wie das, ganz konkret, realisiert werden
soll, ist noch nicht beantwortet.

Den dritten Themenkomplex bei Gartner könnte man mit Workspace und
Customer Experience umschreiben.

Prof. Dr. Hermann: Das ist nun wirklich nicht neu. Customer Experience war
schon für 2023 Thema, und davor auch. Das Thema im Fokus zu halten ist
auch richtig, deshalb hat Gartner bei seinen Prognosen Zeiträume von 36
Monaten im Blick. Insofern wird die Customer Experience weiterhin trenden.
Sie wird - immer wieder neu umschrieben. 2020 hieß es noch „Macht Kunden
zu Fans!“. Dann war von der Customer Journey die Rede und nun eben von der
Experience. Alles nicht verkehrt, aber es bleibt derselbe Themenblock.

Und der virtuelle Arbeitsplatz bzw. die Automatisierung vor Ort?

Prof. Dr. Müller: Da bin ich überzeugt: Der Schritt von der
Digitalisierung zur Virtualisierung geht weiter voran. Die neuen Wohn- und
Arbeitswelten im digitalen Paralleluniversum werden an Bedeutung gewinnen.
Ein wichtiger Aspekt ist an dieser Stelle die Beurkundung virtueller
Besitzansprüche durch digitale Echtheits- und Eigentumszertifikate,
sogenannter NFTs, und damit die Monetarisierung digitaler virtueller
Objekte. Es bleiben die gleichen Herausforderungen: Regulierung,
Governance, Datenschutz, Privatsphäre. Auch Nachhaltigkeit ist wesentlich,
z.B. verbraucht die Erzeugung von NFTs viel Energie.  Die Automatisierung
ist ein ebenso spannendes Thema. Die Robotik entwickelt sich rasant. Wir
erleben die Verschmelzung der Industrie und Service Robotik in der
Digitalen Ökonomie. Heute beschäftigen uns in der Robotik Themen wie
Künstliche Intelligenz und Wahrnehmung. Wir werden in nicht allzu ferner
Zukunft humanoide Roboter in der Logistik sehen.


Ein Trend, den Sie bereits für 2024 sehen?

Prof. Dr. Müller: Wir sind es gewohnt, Trends zu analysieren und unsere
Unternehmen entsprechend daran auszurichten. Ich glaube, dass dies allein
nur eine begrenzte Perspektive auf die Zukunft bietet. Es lohnt auch der
Blick auf die Wertschöpfungssysteme hinter den großen digitalen
Plattformen wie Google, Meta, Microsoft, oder auch dem
Wertschöpfungssystem von Herrn Musk. Schauen Sie nicht nur auf die Trends.
Was sind die großen Wetten auf die Zukunft?  Das ist sinnvoll, weil man
auch diese Entwicklungen beschreiben kann. Dann stellt sich die Frage: An
welche dieser Wetten will man glauben?

Das klingt nach viel Risiko.

Prof. Dr. Müller: Garantien gibt es nicht. Auch die etablierten
Plattformen sind empfindlich gegenüber den schnellen Entwicklungen und der
hohen Innovationsdynamik. An Facebook lässt sich sehr gut
veranschaulichen, wie verwundbar die Geschäftsmodelle der Internetkonzerne
sind. Facebook erlebte 2022 u.a. durch die Auswirkungen von Apples neuen
Datenschutzregeln als auch die Konkurrenz durch Tik Tok einen Kurssturz um
bis zu 26 Prozent innerhalb eines Tages. Der Börsenwert sackte um über 230
Milliarden Dollar ab. Das ist der höchste Verlust an Marktkapitalisierung
eines Wertes an einem Tag.

Apropos: Meta war mit seinem Metaverse bis neulich noch im Trend. Doch das
Thema scheint eher zu verschwinden.

Dr. Konecny: Damit war Zuckerberg wahrscheinlich einfach zu schnell.
Starke Trends werden kurzfristig gern überschätzt – auf lange Sicht aber
eher unterschätzt. 2023 ist so viel neues rund um die Digitalisierung
passiert, da scheint es fast zwangsläufig, dass globale, große Ideen, die
momentan noch nicht viel zu bringen scheinen, in den Hintergrund geraten.
Aber ich rechne damit, dass sich schon in wenigen Jahren eine neue
virtuelle Realität entwickeln wird.

Prof. Dr. Hermann: Es ist eben nicht nur ein „Hype“ um einen Trend. Das
Metaverse befindet sich noch in der Entwicklung, aber die Ansätze sind
elementar! Fast alle Branchen nutzen Aspekte virtueller Realität schon
jetzt – ob wir ein neues Auto konfigurieren wollen, zum „Anprobieren“
neuer Mode einen Avatar benutzen oder uns für dieses Gespräch nicht mehr
am Tisch, sondern per Teams in der virtuellen Realität verabredet haben.

Prof. Dr. Kirsten Hermann ist Professorin für Strategie und
Unternehmensführung an der SRH Fernhochschule, Studiengangsleiterin Master
of Business Administration sowie Studiengangsleiterin Digital Business
Management (M.Sc.) und Ansprechpartnerin für eine Vielzahl von Angeboten
im Rahmen der SPIEGEL Akademie, des F.A.Z. Bildungsmarktes und der Würth
Akademie.

Prof. Dr.-Ing. Stefan Müller ist Professor für Wirtschaftsingenieurwesen
und Digitalisierung an der SRH Fernhochschule und Leiter für die
Studiengänge des Wirtschaftsingenieurwesens und Business Development sowie
Ansprechpartner für die SPIEGEL-Akademie-Zertifikate Industrie 4.0 und
Produktion in der digitalen Welt, Digital Business Management und New
Business Development kompakt.

Dr. Jaromir Konecny ist Fachdozent für Künstliche Intelligenz an der SRH
Fernhochschule, als Schriftsteller und Publizist erfolgreich und steht
regelmäßig als Slam-Poet auf der Bühne.

  • Aufrufe: 47

Wie werden entwaldete Landflächen in Afrika genutzt?

Mit Satellitendaten und Methoden Maschinellen Lernens gelingt es, 15
Landnutzungsformen zu identifizieren und zu lokalisieren – vom Anbau
verschiedener Nutzpflanzen wie Kaffee, Kakao und Kautschuk, über Weideland
bis Bergbau. Das zeigt eine Studie in Nature Scientific Reports. Die
hochauflösenden Karten können helfen, die fortschreitende Entwaldung in
den Tropen einzudämmen. Das ist auch hilfreich zur Umsetzung einer neuen
EU-Verordnung zum Nachweis „entwaldungsfreier Lieferketten“.

Zusammenfassung

Die bewaldeten Flächen Afrikas – schätzungsweise 14 Prozent der globalen
Waldflächen – gehen immer weiter und immer schneller zurück –
hauptsächlich, weil die Menschen eingreifen und das Land für
wirtschaftliche Zwecke anders nutzen. Da die natürlichen Wälder wichtige
CO2-Speicher und Lebensräume sind, hat diese Entwicklung erhebliche
Auswirkungen auf den Klimawandel und die Unversehrtheit der Natur. Um
nachvollziehen zu können, wo und warum Umwandlungen von Wald stattfinden
und im Sinne von Klimaschutz und Biodiversität gezielt steuernd eingreifen
zu können, fehlt es bislang an ausreichend guten Daten und einer
detaillierten Kenntnis über die diversen Nachnutzungsformen der
entwaldeten Flächen. Dies liefert nun eine neue Studie von Forschenden um
Robert N. Masolele und Johannes Reiche von der Wageningen University in
den Niederlanden und Martin Herold vom Deutschen GeoForschungsZentrum GFZ
in Potsdam, die im Fachmagazin Nature Scientific Reports erschienen ist.

Sie nutzten hochauflösende Satellitendaten, die sie auf Basis von lokalen
Referenzdaten für 15 verschiedene Landnutzungsarten – von Nutzpflanzen wie
Kaffee, Cashew und Kautschuk über Weideland bis zu Bergbau – mithilfe von
Deep-Learning-Methoden auswerteten. Auf diese Weise konnten sie die erste
hochauflösende (auf fünf Meter genaue) und kontinentale Kartierung der
Landnutzung nach Entwaldung über einen weiten Bereich des Afrikanischen
Kontinents erstellen. Damit schaffen sie eine verbesserte Grundlage für
die strategische Planung und Umsetzung von Maßnahmen zur Eindämmung der
Entwaldung – sowohl durch Regierungen und Waldschutzbehörden in Afrika als
auch in der EU, wo es eine neue Verordnung zum Nachweis „entwaldungsfreier
Lieferketten“ für Produkte aus bestimmten Rohstoffen gibt.

Hintergrund: Afrikas bedrohte Wälder und eine EU-Verordnung zur Bekämpfung
der Entwaldung

In den letzten zwei Jahrzehnten hat Afrika einen raschen Rückgang von
Waldflächen und Baumbestand zu verzeichnen. Wie sich die Landnutzung nach
der Entwaldung entwickelt, hat erhebliche Auswirkungen auf die
Waldbiomasse, die biologische Vielfalt und den Wasserkreislauf. Diese
Veränderungen können je nach Ort, Intensität und räumlicher Ausdehnung des
Waldverlustes unterschiedlich stark ausgeprägt sein. Das Verständnis über
das räumlich-zeitliche Ausmaß und die Motive von Entwaldung in Afrika sind
von entscheidender Bedeutung, um ihren Beitrag zu den
Treibhausgasemissionen und die negativen Auswirkungen auf das
Waldökosystem zu verstehen und einzudämmen.

Zur Eindämmung der Waldverluste will auch die EU einen wichtigen Beitrag
leisten. Mit der „Verordnung der Europäischen Union zur Bekämpfung der
Entwaldung“ (EUDR) soll sichergestellt werden, dass Produkte, die auf dem
EU-Markt in Verkehr gebracht werden, ohne Entwaldung hergestellt wurden,
sodass die Wälder der Welt für künftige Generationen geschützt werden.
Darüber hinaus fördert sie die Transparenz und Rückverfolgbarkeit in den
Lieferketten und erleichtert es den Verbraucher:innen, bewusste
Kaufentscheidungen zu treffen.

Bisherige Datenbasis unzureichend

Obwohl es in gewissem Umfang nationale und regionale Statistiken gibt, die
die Trends des Waldverlustes dokumentieren, fehlt es bislang an
konsistenten, detaillierten und räumlich expliziten Schätzungen und
Kartierungen der für den Waldverlust verantwortlichen Faktoren. Verfügbare
Angaben beruhen oft nur auf Stichproben zu einzelnen Zeitpunkten, sind
nicht in ausreichender räumlich-zeitlicher Auflösung sowie thematischer
Gliederung verfügbar und umfassten bisher nur Trockenwälder.
Interpretationen beruhen oft auf visueller Inspektion von
Satellitenbildern und auf der historischen Erwartung, dass verschiedene
Formen der Subsistenzlandwirtschaft fortbestehen und dass bestimmte
Landnutzungen auf bestimmte geografische Standorte beschränkt sind.
Hierdurch wird die Vielfalt der tatsächlichen Ursachen für den Waldverlust
übersehen.

Umfassender Ansatz der Kartierung mit hochauflösenden Satellitendaten

In einer umfangreichen Studie haben Forschende um Robert N. Masolele,
Post-Doc-Wissenschaftler an der Wageningen University in den Niederlanden,
und Martin Herold, Leiter der Sektion 1.4 „Fernerkundung und
Geoinformatik“ am Deutschen GeoForschungsZentrum GFZ und Professor an der
Universität Potsdam, nun die komplexen Muster der Landnutzung
entschlüsselt, die nach der Entwaldung in den vielfältigen Landschaften
Afrikas entstehen. Sie präsentieren die erste flächendeckende Karte der
Landnutzung nach Entwaldung in Afrika, die den Waldverlust von 2001 bis
2020 abdeckt. Die Karte ist mit einer räumlichen Auflösung von fünf Metern
und 15 Landnutzungsklassen verfügbar: von Nutzpflanzen wie Kakao, Cashew,
Ölpalme, Kautschuk, Kaffee und Tee bis hin zu Bergbau, Straßen,
Siedlungen, Weideland, kleiner und größerer Landwirtschaft sowie
Plantagenwald und sonstiges Land mit Baumbewuchs.

Die Forschenden stützten sich einerseits auf die hochauflösenden Planet-
NICFI-Satellitendaten, die von der „Norway‘s International Climate &
Forests Initiative“ (NICFI) zur Verfügung gestellt werden. Dementsprechend
wurde die Studie auf dem afrikanischen Kontinent zwischen 30 Grad
nördlicher Breite und 30 Grad südlicher Breite durchgeführt und umfasst
Länder im westlichen, zentralen, östlichen und südlichen Afrika. Die
Region ist sowohl durch Feuchtwälder als auch durch Trockenwälder
gekennzeichnet.

Zum anderen nutzten sie Referenzdaten aus verschiedenen Publikationen, die
zum Teil über Crowd-Sourcing mit Hilfe von Citizen Science gewonnen wurden
oder aus anderen Fernerkundungskampagnen und offenen Datenquellen stammen.

„Das Besondere an dieser Studie ist der innovative Einsatz von
hochauflösenden Satellitenbildern und regionalem Wissen in Kombination mit
maschinellen Lernalgorithmen und aktivem Lernen. Das ermöglichte es uns,
die Landnutzung nach der Entwaldung genau zu identifizieren, in einem
bisher nie dagewesenen Umfang und Detailgrad zu kartieren und den Trend
und die Hotspots der Landnutzungsumwandlung in verschiedenen Ländern und
Regionen Afrikas zu bewerten“, erläutert Robert N. Masolele, Erstautor der
Studie.

Die wichtigsten Ergebnisse hinsichtlich der Landnutzung

Dabei offenbart sich ein komplexes Geflecht von Landnutzungen, die nach
Entwaldungsereignissen entstehen. Die Studie zeigt, dass die Ursachen für
den Waldverlust je nach Region unterschiedlich sind. Im Allgemeinen ist
der Ackerbau in kleinem Maßstab der Hauptgrund für den Waldverlust in
Afrika, mit Hotspots in Madagaskar und der Demokratischen Republik Kongo.
Darüber hinaus sind Nutzpflanzen wie Kakao, Ölpalmen und Kautschuk
Hauptursachen für den Waldverlust in den Feuchtwäldern West- und
Zentralafrikas und bilden einen „Bogen der Nutzpflanzenexpansion“ in
dieser Region. Gleichzeitig dominieren die Hotspots für Cashew zunehmend
die Trockenwälder im westlichen und südöstlichen Afrika, während größere
Hotspots für großflächige Anbauflächen in Nigeria und Sambia gefunden
wurden. Die zunehmende Ausdehnung von Kakao-, Cashew-, Ölpalm-, Kautschuk-
und großflächigen Anbauflächen in den Feucht- und Trockenwäldern West- und
Südostafrikas deutet darauf hin, dass diese Gebiete anfällig für künftige
Landnutzungsänderungen durch Rohstoffpflanzen sind.

Einordnung und Ausblick

Obwohl die Kartierung sehr umfangreich ist, räumt die Studie ein, dass es
schwierig ist, bestimmte Formen der Landnutzung mit hoher Genauigkeit zu
klassifizieren. Faktoren wie Wolkenbedeckung und jahreszeitliche
Schwankungen stellen Einschränkungen dar, die die Notwendigkeit einer
kontinuierlichen Verfeinerung und Validierung unterstreichen.

„Die Studie liefert einen entscheidenden Beitrag zu unserem Verständnis
des komplexen Zusammenspiels zwischen menschlichem Wirtschaften
Aktivitäten und der Umwelt. Ihre besondere Bedeutung liegt darin, dass sie
Menschen in politischen Entscheidungsfunktionen, im Naturschutz und in der
Wissenschaft ein detailliertes Verständnis für die unterschiedlichen
Entwicklungen vermittelt, die Land in weiten Teilen Afrikas nach der
Entwaldung durchläuft. Dieses Wissen ist von entscheidender Bedeutung für
die Ausarbeitung gezielter Schutzstrategien, die Verwirklichung der Ziele
für nachhaltige Entwicklung und die Minderung der Umweltauswirkungen der
Entwaldung auf dem gesamten afrikanischen Kontinent“, betont Koautor
Martin Herold. „Auch wir in Europa werden davon profitieren, denn die neue
EU-Verordnung für entwaldungsfreie Produkte fordern für bestimmte
Rohstoffe wie Kaffee, Kakao und Kautschuk den Nachweis entwaldungsfreier
Lieferketten.“

Insgesamt zeigt diese neue Studie das große Potenzial der Nutzung
hochauflösender Satellitendaten in Kombination mit künstlicher Intelligenz
und regionalem Wissen, um Informationen für verschiedene Interessengruppen
bereitzustellen und die Transparenz bei der Verfolgung kritischer
waldbezogener Landnutzungsänderungen in tropischen Wäldern zu verbessern.

  • Aufrufe: 25

25 Jahre Lawinenwinter 1999

Vor 25 Jahren befanden sich die Alpen im Ausnahmezustand. Enorme
Schneemassen führten verbreitet zu «sehr grosser Lawinengefahr», der
höchsten Gefahrenstufe. In der Folge ereigneten sich zahlreiche
Lawinenunfälle. Das SLF bietet zu diesem Thema mehrere Beiträge an.

Der schneereiche Winter 1998/99 führte zu zahlreichen Lawinenunfällen, in
der Schweiz und im gesamten Alpenraum. Was Mitarbeitende des SLF in dieser
Extremsituation erlebt und welche Erkenntnisse sie gewonnen haben.

Fünf bis acht Meter Neuschnee innerhalb von vier Wochen am Alpennordhang,
unterbrochene Strassen und Bahnlinien, abgeschnittene Ortschaften,
teilweise ohne Strom, Einheimische und hunderttausende Touristen sassen
fest – der Lawinenwinter 1999 jährt sich zum 25. Mal. Innerhalb eines
Monats richteten Lawinen allein hierzulande Schäden in Höhe von rund 600
Millionen Schweizer Franken an. 17 Menschen kamen allein in der Schweiz
ums Leben.

Auslöser war eine besondere Wettersituation. Gleich drei Mal kurz
hintereinander traten niederschlagsreiche Nordweststaulagen auf: vom 26.
bis 29. Januar, vom 5. bis 10. Februar und vom 17. bis 24. Februar. Sie
führten zu intensiven Schneefällen. Erstmals seit der Einführung 1993
herrschte die höchste Lawinenwarnstufe fünf («sehr gross») grossflächig
für mehrere Tage hintereinander.

Die Mitarbeitenden des SLF arbeiteten zum Teil täglich, auch an den
Wochenenden – so sie an ihren Arbeitsplatz kamen. Der heutige Leiter des
Lawinenwarndiensts Thomas Stucki übernachtete eigens bei einem Kollegen,
da die Strasse zu seinem Wohnort gesperrt war (siehe auch Interview mit
Thomas Stucki zum Lawinenwinter 1999). Permafrost-Expertin Marcia Phillips
war eine Woche lang im Ortsteil Monstein von der Aussenwelt abgeschnitten.
«Das war auch schön», sagt sie heute. Sie und einige ihrer damaligen
Kolleginnen und Kollegen erzählen hier von ihren Erlebnisse in diesem
Extremwinter, darunter SLF-Leiter Jürg Schweizer, der sich an eine teils
hektische und angespannte Stimmung erinnert.

Der Lawinenwinter 1999 in der Schweiz in Zahlen:
- Rund 1200 Schadenlawinen in den Schweizer Alpen
- 28 Verschüttete, von denen 17 nicht überlebten (ohne touristische
Unfälle)
- 131 verschüttete Schneesportlerinnen und Schneesportler, von denen 19
ums Leben kamen
- Sachschäden in Höhe von mehr als 600 Millionen Schweizer Franken
- Indirekte finanzielle Folgen für die Tourismusbranche vermutlich mehr
als 300 Millionen Schweizer Franken

Nach der dritten und letzten Niederschlagsperiode erkundeten mehrere
Mitarbeitende mit dem Helikopter das Ereignis und untersuchten einzelne
Lawinenniedergänge im Detail. So flogen Jürg Schweizer und Lukas Stoffel
nach Leukerbad, wo eine künstlich ausgelöste Lawine das halbe Dach eines
Mehrfamilienhauses weggerissen und eine Strasse verschüttet hatte. Danach
ging es weiter – und auf Bitten der Behörden zum Schneeprofil graben in
einem 35 Grad steilen Hang 1500 Meter oberhalb eines teilevakuierten
Dorfes. Ungefährlich war das nicht. «Da lagen drei bis vier Meter Schnee,
das war wirklich ein komisches Gefühl», erinnert sich Stoffel.
Letztendlich fanden die beiden keine Schwachschicht. «Aber dennoch, es war
schon so, entweder war die Evakuierung nicht angebracht, oder wir waren
tollkühn», sagt Schweizer rückblickend.

Die grossen Lawinenwinter in der Schweiz und ihre Folgen:
1887/88: mehr als 1000 Lawinen, erstmals werden Schäden dokumentiert
1951: rund 1300 Schadenlawinen, der Lawinenwarndienst wird ausgebaut, der
Stützverbau in Anrissgebieten wird forciert
1954: 325 Schadenlawinen, Lawinenmodelle entstehen
1968: besonders schwer traf es Davos, die Bedeutung von Gefahrenkarten
wird offensichtlich, deren Erarbeitung forciert
1999: rund 1200 Schadenlawinen, temporäre Schutzmassnahmen werden forciert
2018: rund 150 Schadenlawinen, es zeigt sich, dass sich die Kombination
von permanentem und temporärem Lawinenschutz bewährt

Marcia Phillips wurde nach Evolène geschickt, weil sie französisch
spricht. Dort war der folgenschwerste Lawinenniedergang in diesem Winter
in der Schweiz, der zwölf Menschen das Leben kostete, und das
drittschwerste des Landes im 20. Jahrhundert. Phillips kartierte die
Lawinen, nahm Schäden auf und fotografierte diese. «Die ganze Zeit über
wurde ich von Einheimischen zum Kaffee eingeladen, die Menschen wollten
von ihren Erlebnissen erzählen.»

Die Lawinenexperten waren auch international gefragt. Stefan Margreth,
heute Leiter der Forschungsgruppe Schutzmassnahmen, und der Geophysiker
Paul Föhn flogen im Auftrag des Landesgerichtes Innsbruck ins
österreichische Galtür, um das dortige Unglück zu untersuchen, das grösste
des Winters. Eine Lawine hatte den Dorfteil Winkl zerstört. 31 Personen
starben. Die Schneemassen waren in Bereiche vorgedrungen, die gemäss der
Gefahrenkarten als sicher galten. Die Justizbehörden stellten ihre
Verfahren ein.

Anders im Falle von Evolène. Das Walliser Kantonsgericht verurteilte den
Gemeindepräsidenten und den Sicherheitschef zu bedingten Gefängnisstrafen.
Erst 2006, sieben Jahre nach dem Unglück, wurden die Urteile
rechtskräftig. Der Beschluss verunsicherte zahlreiche Mitarbeitende der
Lawinendienste. Das SLF untersuchte eigens, ob tatsächlich Grund zur Sorge
besteht und kam zum Schluss, das Urteil verschärfe nicht die
Sorgfaltspflichten. «Zudem hat die Schweiz seit dem Lawinenwinter 1998/99
zahlreiche Massnahmen ergriffen, damit Lawinendienste in einer ähnlichen
Situation die Lage noch besser meistern können», sagt Jürg Schweizer als
Hauptautor der Analyse.

Der Lawinenwinter beschäftigte die Forschenden am SLF noch viele Jahre.
Zahlreiche Studien sowie ein rund 600 Seiten starkes Buch entstanden
(siehe unten). Aus den Analysen gingen zahlreiche neue Projekte und Ideen
für den Schutz vor Lawinen hervor. «Der Lawinenwinter 1999 hat vor allem
im Bereich der organisatorischen Massnahmen grosse Anstrengungen
ausgelöst», sagt Schweizer und verweist als Beispiel auf das
Interkantonale Frühwarn- und Kriseninformationssystem IFKIS, entwickelt
vom SLF und Vorläufer des heute verwendeten Systems SLFPro. Eine weitere
Erkenntnis war, dass Lawinen zu sprengen eine sinnvolle, kostengünstige
Alternative zu Lawinenverbauungen ist. Gleichzeitig wurde laut Margreth
aber auch die Bedeutung der Bauten klar: «Abschätzungen zeigen, dass im
Februar 1999 rund 300 Schadenlawinen durch deren Wirkung verhindert
wurden.»

«Die Dimension der Lawinen war beeindruckend»

Thomas Stucki leitet den Lawinenwarndienst am WSL-Institut für Schnee- und
Lawinenforschung SLF. Im Interview erinnert er sich an den Lawinenwinter
1998/99. Es war der dritte Winter als Lawinenwarner für den damals
31-Jährigen.

Herr Stucki, sind Sie und ihre Kollegen im Winter 1998/99 vor lauter
Schnee überhaupt noch an ihren Arbeitsplatz gekommen?

Für alle, die nah am Institut gewohnt haben, ging das gut. Ich selbst
wohnte etwas entfernt in Frauenkirch und hatte immer eine Tasche mit
Kleidern dabei für den Fall, dass die Straße geschlossen werden könnte. An
einem frühen Morgen, ich war noch zu Hause, hatte mich der Leiter des
Gemeinde-Lawinendienstes Davos angerufen, um sich mit mir über die
Lawinensituation auszutauschen und dann gesagt, er würde jetzt die Straße
nach Frauenkirch schließen. Ich habe mich darauf schleunigst auf den Weg
ans SLF gemacht und für ein paar Tage bei einem Kollegen übernachtet.

Konnten Sie denn noch wie gewohnt arbeiten?

Im Grundsatz ja – wir gaben aber zusätzliche Lawinenbulletins heraus und
brauchten mehr Leute, z.B. um die vielen Anfragen zu beantworten. Zudem
mussten die vielen gemeldeten Lawinen, die bis in die Talsohlen abgingen,
festgehalten werden. Schneedeckeninformation gab es eher weniger als
sonst, weil der Aktionsradius der Beobachter stark eingeschränkt war. Es
gab ja dann schlussendlich gebietsweise fünf bis acht Meter Neuschnee. Das
sind gewaltige Mengen. Und es war gefährlich. Seit der Einführung der
fünfteiligen europäischen Gefahrenstufenskala im Jahr 1993 war es das
erste Mal, dass wir die Stufe fünf großflächig und über längere Zeit
benutzt hatten. Ausserordentlich war auch, dass wir am Ende der dritten
Periode Erkundungsflüge mit Helikoptern gemacht hatten. Davon habe ich
schon noch ein paar sehr eindrückliche Bilder im Kopf.

Welche?

Die Dimension der Lawinen war beeindruckend, und die häufig eingeschneiten
Lawinenverbauungen – gut hat es nicht noch mehr Schnee gegeben. Und dass
teilweise das Gelände etwas anders aussah als sonst, weil da eben so viel
Neu- und Triebschnee lag.

Wie funktionierte der Lawinenwarndienst damals?

Wir hatten ein und zwei Winter zuvor einiges neu eingeführt: Ein
dreiköpfiges Bulletinteam, Bulletinausgabe um 17 Uhr als Prognose für 24
Stunden, erste regionale Lawinenbulletins für gewisse Gebiete morgens um
acht Uhr zur räumlichen und zeitlichen Verdichtung der Information, und
wir hatten ein neues, gemeinsames Produkt mit Meteo Schweiz, die
Frühwarnung für Schnee und Lawinengefahr. Wir hatten wohl Computer-Tools
zur Darstellung der Daten in der Datenbank, haben aber viel mit Papier und
Farbstift gearbeitet. Viele Informationen kamen per Fax rein. Zum
Informationsaustausch haben wir häufig mit regionalen Lawinendiensten
telefoniert.

Die Telefonleitung hat demnach funktioniert.

Ja, schon. Auch Mobiltelefone gab es schon, es waren aber keine
Smartphones. Da kommt mir noch etwas in den Sinn: Im Haus des Kollegen,
bei dem ich übernachtet hatte, gab es gerade einen Ort, an dem
Handyempfang war, und da lag das Pikett-Telefon dann auch immer – heute
kaum mehr vorstellbar.

Und wenn der nächste Lawinenwinter kommt?

Wenn eine solche Situation heute eintreten würde, dann wäre es bestimmt
wieder eine Herausforderung, weil wir mit ausserordentlichen, seltenen
Lawinenlagen grundsätzlich wenig Erfahrung haben. Aber ich bin überzeugt,
dass wir diese meistern würden.

  • Aufrufe: 48

Den Artgrenzen auf der Spur: Hybridisierungsmuster von zwei Schlangenarten liefern neue Einsichten

Was ist eigentlich eine Art? Diese uralte Frage lässt sich bis heute nicht
universell beantworten, aber die Erforschung konkreter Fallbeispiele trägt
zu einem besseren Verständnis bei. Ein Forschungsteam der Zoologischen
Staatssammlung München (SNSB-ZSM) und der Senckenberg Naturhistorischen
Sammlungen Dresden hat die Hybridzone von zwei Ringelnatterarten im
bayerischen Priental untersucht. Obwohl sich diese Arten fruchtbar kreuzen
können, beschränkt sich die Hybridzone im Wesentlichen auf eine Breite von
nur wenigen Kilometern. Die Studie ist heute in der Fachzeitschrift
Salamandra - German Journal of Herpetology erschienen.

Wenn die Verbreitungsgebiete von zwei, nahe verwandten Tierarten
aneinanderstoßen, bilden sie an diesen Grenzen oft Hybridzonen aus, in
denen sich beide Arten miteinander kreuzen. In manchen Fällen können sich
deren Nachkommen sogar weiter fortpflanzen. Diese Vermischung ist
allerdings oft räumlich sehr begrenzt. Schmale Hybridzonen deuten darauf
hin, dass die Vermischung der beiden Arten erheblich eingeschränkt ist und
können als Beleg für das Vorhandensein von Artgrenzen dienen.

Das Forschungsteam aus München und Dresden hat in einer neuen Studie das
Gebiet, in dem die Italienische Barrenringelnatter (Natrix helvetica
sicula) und die Ringelnatter (Natrix natrix) aufeinandertreffen, genauer
untersucht. Um die Hybridzone der beiden Schlangenarten genauer zu
verstehen, untersuchte das Team zwei genetische Marker (DNA aus den
Mitochondrien und Mikrosatelliten aus dem Zellkern) und die
Zeichnungsmuster auf Kopf und Körper von 49 Nattern aus dem Priental.
Dabei stellte sich heraus, dass im oberen Priental vor allem reine oder
fast reine Barrenringelnattern vorkommen, im unteren Priental zum Chiemsee
hin dagegen reine oder fast reine Ringelnattern.

"Die hauptsächliche Hybridisierungszone liegt in einem nur vier Kilometer
breiten Abschnitt um den Ort Aschau im zentralen Priental und ist damit
deutlich enger als wir erwartet hatten" sagt Erstautor Adrian Neumann, der
diesem Thema seine Bachelorarbeit an der Zoologischen Staatssammlung
München (SNSB-ZSM) gewidmet hat.

"Unsere genetischen Datensätze und die Zeichnungsmuster der Nattern
bestätigen unabhängig voneinander eine extrem enge Hybridzone. Das deutet
auf eine starke negative Selektion der Hybriden und eine Stabilisierung
der Hybridzone durch Umweltgradienten hin. Die Hybriden könnten zum
Beispiel weniger lebensfähige Nachkommen haben", ergänzt Prof. Uwe Fritz
von den Senckenberg Naturhistorischen Sammlungen Dresden.

"Unsere Ergebnisse bestätigen sehr deutlich, dass sich Ringelnatter und
Barrenringelnatter fruchtbar miteinander fortpflanzen können. Dennoch
kommt es hier nicht zu einer großflächigen, diffusen Vermischung beider
Formen. Das zeigt uns einmal mehr, dass es sich hier um zwei verschiedene
Arten handelt" sagt Dr. Frank Glaw, Kurator für Reptilien und Amphibien an
der Zoologischen Staats-sammlung München (SNSB-ZSM). "Bis heute wird in
der Schule oft noch das biologische Artkonzept gelehrt, wonach zwei
Individuen zu einer Art gehören, wenn sie fruchtbare Nachkommen haben
können. Doch dieses Konzept ist längst überholt. Eisbären und
Grizzlybären, aber auch viele Katzenarten wären beispielsweise nach dem
biologischen Artkonzept streng genommen keine unterschiedlichen Spezies,
denn in der Natur kommt es immer wieder zu fruchtbaren Hybridisierungen
zwischen diesen Arten."

Aber wie sonst kann man Arten definieren? "Eine mögliche Antwort ist, dass
sich Arten im Evolutionsverlauf weitgehend unabhängig voneinander
entwickeln, wodurch sie sich durch eine Kombination von genetischen und
morphologischen Unterschieden und oft auch über ein relativ scharf
begrenztes Verbreitungsgebiet mit engen Hybridzonen definieren lassen",
resümiert Prof. Uwe Fritz.

Diese Kriterien erfüllt auch die Barrenringelnatter (Natrix helvetica),
die bis zum Jahr 2017 noch als Unterart der weit verbreiteten Ringelnatter
(Natrix natrix) betrachtet wurde. Frühere Untersuchungen hatten bereits
gezeigt, dass die Italienische Barrenringelnatter nach der letzten Eiszeit
die Alpen erfolgreich überquert hat, dann aber offenbar am nördlichen
Alpenrand auf die Ringelnatter traf und von ihr gestoppt wurde.

  • Aufrufe: 127