Zum Hauptinhalt springen

Länger gesund leben: Was die Biomarker des Alterns für die Therapie und Prävention bedeuten könnten

Wie lässt es sich nicht nur länger leben, sondern vor allem länger gesund
bleiben im hohen Alter? Dieser Frage gehen Geriaterinnen und Gerontologen
gleichermaßen nach. Um das volle Potenzial gerontologischer Interventionen
ausschöpfen zu können, sind quantifizierbare Instrumente zur Überwachung
des individuellen menschlichen Alterns erforderlich. Genau damit
beschäftigt sich die Molekularmedizinerin Dr. Chiara Herzog. Sie forscht
am Institut für Biomedizinische Alternsforschung der Universität
Innsbruck, insbesondere zum Themengebiet Krebsprävention.

Im Rahmen des Gerontologie- und Geriatrie-Kongresses, zu dem vom 11. bis
14. September rund 900 Teilnehmende in Kassel erwartet werden, wird sie in
ihrem Keynote-Vortrag die neuesten Erkenntnisse zu den sogenannten
Biomarkern des Alterns vorstellen. „Damit könnten wir klinische Studien
zur Lebenserwartung deutlich verbessern“, sagt Herzog. Sämtliche
Informationen zum Kongress gibt es unter: www.gerontologie-geriatrie-
kongress.org

Die Biomarker des Alterns sind Instrumente für gerontologische
Interventionen, mit deren Hilfe altersbedingte Ergebnisse besser
vorhersagt werden können. Das könne zum Beispiel Krebs-, Herz-, Lungen-
oder Augenerkrankungen betreffen, ebenso Diabetes oder Schwerhörigkeit.
Klassische Biomarker sind Blutzuckerwerte, das Körpergewicht, Eiweißstoffe
oder Blutstoffwechselprodukte. Neuere Biomarker inkludieren auch digitale
Messungen, zum Beispiel von sogenannten Wearables, und detaillierte
molekulare Analysen. „Je detaillierter wir diese Marker in Zukunft
darstellen können, desto mehr werden wir über die individuellen
Alterungsprozesse erfahren“, erklärt Herzog.

Zudem dienen die Biomarker des Alterns als Ersatzendpunkte in klinischen
Studien und in der Pflege. Kurzum: Diese Marker können für eine
verbesserte Therapie und Prävention bei älteren Patientinnen und Patienten
sorgen. Mittlerweile wurden mehrere Biomarker des Alterns entwickelt.
„Aber es ist bisher noch keiner dieser Biomarker für den klinischen
Einsatz validiert. Genau daran arbeiten wir jetzt in unserem ‚Biomarkers
of Aging Consortium‘. Wir wollen die Standardisierung und Validierung von
den Biomarkern des Alterns fördern und sie als zuverlässige Tools für
Langlebigkeitsinterventionen im klinischen Rahmen etablieren“, erklärt
Herzog. „Mit diesen messbaren Parametern könnten wir dann in Zukunft
beispielsweise viel bessere und auf Alter abgestimmte vorbeugende oder
kurative Eingriffe entwickeln.“

Überblick: Zukünftige Initiativen bei der Biomarker-Forschung und der
Datengenerierung

In ihrem Vortrag beim gemeinsamen Jahreskongress der Deutschen
Gesellschaft für Geriatrie (DGG) sowie der Deutschen Gesellschaft für
Gerontologie und Geriatrie (DGGG) gibt Chiara Herzog einen Überblick über
aktuelle und zukünftige Initiativen bei der Biomarker-Forschung. Dabei
beleuchtet sie auch, wie es um Innovationen durch Biomarker-
Herausforderungen steht und welche neuesten Entwicklungen es bei Delphi-
basierter Konsensbildung in der wissenschaftlichen Gemeinschaft gibt.
Zudem geht es um die Bereitstellung von Open-Source-Tools für Biomarker
sowie um Datengenerierung und -harmonisierung in der Forschung. Die
gebürtige Tirolerin ist Teil des European Translational Oncology
Prevention & Screening Institut, kurz EUTOPS-Institut, und ist seitdem
federführend an der Forschung zum weiteren Verständnis der Epigenetik in
Krebsentstehung und -vorbeugung und in der Alternsforschung beteiligt.

  • Aufrufe: 49

Zirkuläre WLAN-Router im nachhaltigen Aluminiumgehäuse

An multifunktionalen Aluminium-Gehäusen für einen WLAN-Router nach neues-
ter EU-Ökodesign-Richtlinie arbeitet ein deutsch-polnisches Konsortium aus
Forschung und Industrie. Eine substanzielle Reduzierung von Kunststoffen
und die Miniaturisierung der Leiterplattenfläche können die
Rohstoffeffizienz und Kreislauffähigkeit deutlich erhöhen.

Der WLAN-Router ist unverzichtbares Element einer vernetzten Welt. Die
kontinuierliche Weiterentwicklung von Radar- und Gehäusetechnologien
bietet neue Möglichkeiten für eine verbesserte Leistung, Funktionalität
und Umweltverträglichkeit. Die richtige Materialwahl kann dabei nicht nur
Kosten sparen, sondern Antrieb einer nachhaltigen Produktentwicklung für
eine kreislauforientierte Ökonomie sein.

Aluminium wird als Gehäusematerial bereits für verschiedene Produkte der
Informations- und Kommunikationstechnik (IKT), wie Smartphones oder
Mobilfunktransceiver verwen-det. Es ist gut recyclebar und besitzt dadurch
bereits nach zwei Produktkreisläufen einen kleineren CO2-Fußabdruck als
Kunststoffe.

In Zusammenarbeit mit den polnischen Instituten Lukasiewicz ITR und INM
sowie dem Fraunhofer IEM prüfen Forschende am Fraunhofer IZM jetzt die
Eignung des Werkstoffs für die Gehäuse handelsüblicher WLAN-Router. Dazu
wird die Anpassung einer existierenden Technologie für dreidimensional
geformte Schaltungsträger (3D Molded Interconnect Devices, 3D MID) für die
direkte Integration von Antennen auf nicht planaren Aluminiumoberflächen
erprobt. Zusätzlich wird ein Ökodesignkonzept entwickelt, mit dem sich der
Materialeinsatz reduzieren und die Recyclingfähigkeit des Produkts erhöhen
lässt. Dieser integrierte Technologie- und Ökodesignansatz soll
demonstrieren, wie zukünftige IKT-Geräte für eine kreislaufgerechte
Wirtschaft gestaltet werden können.

Multifunktionale Oberfläche dank Laserdirektstrukturierung
Neben dem Einsatz von Aluminium als Gehäusematerial soll der Router eine
multifunk-tionale Oberfläche besitzen. Die Integration von Antennen und
Sensoren auf der äuße-ren Oberfläche des Gehäuses ermöglicht eine kompakte
und effiziente Gestaltung des Routers. Die Innenseite des Gehäuses kann
zudem als Schnittstelle zur Wärmeübertra-gung genutzt werden. Zur
Integration der Antennen und Sensoren auf der Oberfläche wird die
bestehende 3D-MID-Technologie, die auf der Laserdirektstrukturierung (LDS)
eines Lacks basiert, adaptiert. Diese Technologie wurde in der
Vergangenheit nur bei Kunststoffen angewendet. Der Lack besitzt gute
Hochfrequenzeigenschaften und erlaubt somit die Integration von HF-
Strukturen und Antennen für 6 GHz. Durch ein identisches Design des Ober-
und Unterteils kann die Anzahl der benötigten Werkzeuge zur Herstel-lung
minimiert werden. So sinken auch die Herstellungskosten und die
Produktionszeit. Ein klippbarer Verschluss ohne Kleb- oder
Schraubverbindungen gewährleistet eine zu-verlässige Verbindung der
Gehäuseteile und erleichtert Wartungs- und Reparaturarbei-ten. Zudem sind
Halterungen für Aluminium-Substratträger auf der Innenseite vorgese-hen,
um eine optimale Platzierung der elektronischen Komponenten zu
gewährleisten.

Das AiF-geförderte Cornet-Projekt „ALU4CED“ (Aluminium based
multifunctional hou-sing for circular electronic devices) läuft vom
01.10.2023 bis 30.09.2025 und wird am Fraunhofer IZM durch das
Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert.
Projektpartner sind das Fraunhofer-Institut für Entwurfstechnik
Mechatronik IEM, Lukasiewicz - Institute of Non-Ferrous Metals INM sowie
das Lukasiewicz - Tele and Radio Research Institute ITR. Die
Projektpartner stehen dabei im Austausch mit In-dustrieteilnehmern. Anlass
für das Forschungsvorhaben ist die Verabschiedung der EU-Ökodesign-
Verordnung für nachhaltige Produkte (Ecodesign for Sustainable Product
Regulation, ESPR) mit neuen Anforderungen an das Ökodesign von Produkten.

Bei dem im März 2023 veröffentlichten Vorschlag der Verordnung wird die
bisherige EU-Ökodesign-Richtlinie (2009/125/EG) ersetzt und schafft eine
Grundlage für ökologisch nachhaltige, langlebige und zirkuläre Produkte.
Die ESRP weitet dabei zu betrachteten Produktgruppen und Anforderungen aus
und legt den Fokus auf energierelevante Pro-dukte. Neben Betrachtungen der
Energieeffizienz sollen u.a. Anforderungen an Ressour-ceneffizienz, an
eine nachhaltige Produktion, an Reparatur- und Kreislauffähigkeit, Prob-
lemstoffgehalten und an die Entsorgung gestellt werden. In den nächsten
Monaten wird die Verordnung final in Kraft treten.

From Silicon to Sustainability - Electronic Goes Green (EGG+)
Nähere Einblicke zum laufenden Projekt gibt es auf der vom Fraunhofer IZM
ausgerich-teten Konferenz „Electronics Goes Green (EGG+)“ im Juni 2024 in
Berlin. Unter dem Motto „From silicon to sustainability“ erhalten Sie
Einblicke in das „Life Cycle Assess-ments“ von elektronischen Komponenten,
Umwelteffekten von ausgereiften und Zu-kunftstechnologien sowie „Circular
Economy“ Strategien. Registrieren Sie sich jetzt unter
electronicsgoesgreen.org und networken Sie zu den inspirierenden Themen
auf der Konferenz oder den geplanten Touren bei Unternehmen im Raum
Berlin.

(Text: Niklas Goll)

Ökodesign-Richtlinie: https://commission.europa.eu/energy-climate-change-
environment/standards-tools-and-labels/products-labelling-rules-and-
requirements/sustainable-products/ecodesign-sustainable-products-

regulation_en

  • Aufrufe: 59

Deepfakes im Visier: KI als Waffe gegen digitale Manipulation

Deepfakes stellen eine ernstzunehmende Herausforderung dar, die sowohl
technologische als auch gesellschaftliche Fragen aufwirft. Deshalb
entwickeln Forschende am Deutschen Forschungszentrum für Künstliche
Intelligenz (DFKI) in Berlin Methoden, mit denen Deepfakes verlässlich
erkannt werden, um Menschen mit den nötigen Warnungen und
Richtigstellungen erreichen zu können. „News-Polygraph“ heißt das
ambitionierte Projekt, das im Katz-und-Maus-Spiel zwischen den
Erzeugnissen von generativen Modellen und Erkennungs-Technologien den
entscheidenden Vorteil bringen soll.

Deepfakes sind realistisch anmutende Medieninhalte, die mithilfe
generativer künstlicher Intelligenz (genKI) erzeugt oder manipuliert
werden, um täuschend echte Audio-, Video- und Bildinhalte zu generieren.
Die Anwendungsmöglichkeiten: Nahezu grenzenlos! Wie diese Technologie ihr
positives sowie negatives Potenzial entfaltet, und wie wir uns als
Gesellschaft vor Desinformation und Manipulation schützen können,
beleuchten Vera Schmitt, Gastwissenschaftlerin der TU Berlin am DFKI
Berlin, und Tim Polzehl, DFKI-Forscher im Bereich „Speech and Language
Technology“, durch Einblicke in ihre Arbeit.

Tim Polzehl, Forschender im Bereich Speech and Language Technology am
DFKI: "Eine frühe Version von dem was heute als Deepfake betrachtet wird
kennen wir aus der Sprachsynthese. Dort werden mittels KI möglichst echt
klingende computergenerierte Stimmen entwickelt, die sich in den letzten 5
Jahren soweit entwickelt haben, dass nun einzelne Stimmen täuschend echt
generiert werden können - auch mit wenig Trainingsmaterial. Heute
ermöglicht generative KI auch die Erstellung täuschend echter Bilder,
Videos und Audios, die oft schwer von echten Inhalten zu unterscheiden
sind. Mit dem Aufschwung und der öffentlichen Verfügbarmachung der
generativen KI wurde das Thema zu einem breiten gesellschaftlichen
Phänomen, das technische, ethische und anwendungsbezogene Fragen
aufwirft.“

Diese Fragen verlangen nach Antworten. Als Forschende befassen sich Tim
Polzehl und Vera Schmitt mit der Aufgabenstellung, wie Technologie bei der
Beantwortung dieser Fragen helfen kann. Für eine erfolgreiche
Identifizierung von manipulativen KI-generierte Medieninhalten braucht es
neben technischen Lösungen allerdings auch gesellschaftliche -
menschliche. Ein Umstand, der bereits bei der Definition von „Deepfakes“
eine Herausforderung birgt.

Vera Schmitt, Gastwissenschaftlerin im Bereich Speech and Language
Technology am DFKI:„Für „Deepfakes“ eine einzige exakte Definition zu
finden ist schwierig – es gibt eine Vielzahl von Definitionen. Deepfakes
sind im Grunde realistische Medieninhalte, die durch KI und Transformer-
basierte Modelle abgeändert, erzeugt oder verfälscht werden. Dabei gilt
allerdings die eine große Debatte zu beachten, inwiefern Vorsatz, Betrug,
Erpressung, Rufschädigung und politische Manipulation eine Rolle spielen,
und inwieweit Kunst und Unterhaltung ein Platz eingeräumt werden sollte.“

Mensch und KI: gemeinsam stark

Es gilt also Mensch und Technologie gemeinsam zu denken. Schließlich sind
es Menschen, die glauben, Eindrücke verarbeiten, manipuliert werden – und
womöglich selbst manipulieren. Erst durch die Kombination von menschlichem
Urteilsvermögen und KI-unterstützen Tools lässt sich verlässlich erkennen,
wann eine Täuschung vorliegt, und so effektive Gegenmaßnahmen entwickeln.

Das Zusammenspiel ist deshalb notwendig, weil Vorsatz zur Täuschung
beispielsweise von KI-Modellen nicht gut erkannt werden kann, denn dafür
braucht es geeignete Indikatoren. Menschen müssen die Evaluationen von KI-
Modellen demnach kontrollieren, selbst den Kontext schaffen und andere
Möglichkeiten in Betracht ziehen.

Wir Menschen erkennen bestimmte Indikatoren für Fälschungen auf Anhieb,
die KI erkennt andere Anzeichen.

Auf Details kommt es an

Ein plakatives Beispiel: Betrachten wir ein realistisch wirkendes Foto
eines Menschen, der auf jeder Seite zwei Ohrläppchen hat. Für die meisten
Menschen wäre dies ein deutliches Anzeichen für ein Deepfake.

Tim Polzehl: „Die KI kommt an diesem Punkt ins Straucheln, denn eventuell
sehen alle von der KI erkannten Elemente realistisch aus – und das
Ohrläppchen wird mitunter gar nicht erkannt. Oder es wird doch erkannt,
nur kann die KI das Erkannte nicht in einen sinnvollen Kontext setzen -
nämlich: dass wir Menschen nun mal in der Regel pro Ohr nur ein
Ohrläppchen haben. Für eine solche Entscheidung bräuchte eine KI zunächst
einmal eine deutlich gesteigerte Erkennung der Ohrläppchen, logisches,
kritisches und hinterfragendes Denken und Weltwissen über menschliche
Anatomie, was derzeit nicht gegeben ist. Wir Menschen haben diese
Fähigkeiten und können aus unserem Wissen und dem Kontext ableiten, dass
dieses Foto wohl nicht authentisch ist."

Bei Bilddarstellungen und technischen Feinheiten, ist uns die KI
allerdings um Längen voraus. Lichtverhältnisse, Schatten und
Überlagerungen, Bewegungen, Übergänge und Auffälligkeiten auf Pixelebene –
in diesen Bereichen wird es für die menschliche Wahrnehmung schwierig. Bei
dieser fast schon forensischen Betrachtung können KI-Tools hervorragend
aushelfen, denn hoch spezialisiert funktioniert KI sehr gut – kann
explizite Aufgaben also effektiv erfüllen. Unregelmäßigkeiten und
Auffälligkeiten können dann wiederum als Indikator für mittels generativer
KI-Modelle generierte Inhalte interpretiert werden.

Content-based-analysis

Abgesehen von der Identifizierung inhaltlicher Unstimmigkeiten sind
Menschen dazu in der Lage, Verhältnismäßigkeiten und Erwartungen in ihre
Betrachtung von Medieninhalten einfließen zu lassen.

Vera Schmitt: „In der Regel haben wir ein gutes Verständnis von Kontext
und Logik. Wenn also in einem Video die Säulen am Brandenburger Tor
umkippen, und umstehende Menschen überhaupt nicht auf dieses Ereignis
reagieren, dann können wir sehr leicht auf eine unechte Darstellung
schließen. Außerdem gäbe es bei solch einem Event eine Vielzahl von
unabhängigen Quellen, welche über das Geschehen berichten würden.“

Für die Ermittlung von Deepfakes und manipulativen Inhalten muss also auf
eine Analyse des Inhalts gesetzt werden. Vor allem, wenn anhand der
Darstellungsform kaum zwischen authentischem und künstlichem Material
unterschieden werden kann – wie beispielsweise bei Text.

Im Textbereich gibt es inzwischen viele unterschiedliche populäre
Transformer-basierte Modelle zur Generierung. Diese synthetischen
Texterzeugnisse sind in kleinen Mengen nahezu unmöglich zu erkennen.
Sowohl für den Menschen als auch für die KI.

Vera Schmitt: „Deshalb sind für die Erkennung von falschen Informationen
die Beantwortung einiger Fragen elementar. Wer hat die Information
ursprünglich in den Umlauf gebracht? Welche Fakten, Personen und Events
werden dargestellt? Gibt es zu der Thematik bereits bekannte Fakes?“

Auf diese Fragen können spezialisierte KI-Tools bereits verlässliche
Antworten liefern. Durch öffentlich verfügbare Anwendungen wie
beispielsweise Deep Ware Scanner, Deeptrace oder Whisper lassen sich
Informationen validieren. Und auch der News-Polygraph soll künftig
Menschen dazu ermächtigen, Informationen leichter zu überprüfen – und
manipulative Narrativen aufzudecken.

Tim Polzehl: „Wir haben es mit zwei Begriffen zu tun. Zunächst gibt es
Deepfakes, also Audios, Videos, Bilder und Co mit vermeintlicher
Authentizität. Dann gibt es da noch Desinformationen in Narrativen.
Letzteres bringt uns in den Bereich des Fact-Checking – und zu einem
weiteren Aspekt unseres News-Polygraphen.“

News-Polygraph vs. Desinformation in Narrativen

Eine Grundidee des Fact-Checkings: Manipulative Narrativen wiederholen
sich, also können wir in die Vergangenheit schauen – und dieselben
Narrativen womöglich erneut in der Gegenwart entdecken. Bei diesem Prozess
kann KI erfolgreich unterstützen. Dann bleibt zu überprüfen, ob die
Narrative bereits widerlegt wurde, ob es dazu bereits Veröffentlichungen
gab - und zuletzt, wie man diese Information effektiv kommunizieren kann.

Das Team um Polzehl und Schmitt versteht den News-Polygraphen als „KI-
Modell zur intelligenten Entscheidungshilfe für Journalisten“. Daher sei
es entscheidend, dass die Auswertungen des Modells auf eine so
transparente Weise dargestellt werden können, dass diese von Journalisten
entsprechend verstanden und eingeordnet werden können.

Vera Schmitt: „Es ist außerdem wichtig, die Umstände von der Verbreitung
von Mis- und Desinformation zu evaluieren und diese in eine Beurteilung
oder Umsetzung wie beispielsweise eines Digital Service Acts mit
einfließen zu lassen. Schließlich können gefälschte Inhalte auch unwissend
und unabsichtlich geteilt werden, ohne jedwede Intention dahinter, damit
zu täuschen.“

Es bräuchte also ein Prozedere, durch das KI-generiertes Material nicht
nur gekennzeichnet wird, sondern neben Authentizität auch Intention und
Wirkung bemessen werden können. Denn die Tatsache, dass KI synthetische
Medien wie Stimmen, Videos und Bilder generieren kann, sei zunächst
positiv, so Schmitt. Allerdings können Menschen mit denselben Inhalten
persönliche Kampagnen fahren und diese Medien missbrauchen.

Tim Polzehl: „Sich gegen Desinformationen zu wappnen heiß deshalb öfter
und kritischer hinterfragen, wem und vor allem warum man bestimmten
Behauptungen Glauben schenkt. Dabei spielen Intention und Quellen einer
Behauptung eine immer größere Rolle. Das gilt auch für uns
Wissenschaftler. Wenn beispielsweise faktenbasiert kommuniziert wird,
werden in der Regel auch Quellen bereitgestellt. Am Ende müssen aber auch
wir Wissenschaftler unser Vertrauen ein Stück weit verschenken – auch wenn
die Wissenschaft im Anschluss daran zum größten Teil auf Evidenz basiert.“

Absolute Gewissheit gibt es nicht

Vera Schmitt: „Es wird nie eine KI geben, die alles erkennen kann. Darüber
hinaus herrscht zwischen generativen Modellen und Erkennungs-Technologien
ein immenses Ungleichgewicht, welches es durch einen Zuwachs an Ressourcen
und Aufmerksamkeit für dieses Thema auszugleichen gilt. Denn Deepfakes
haben in der heutigen Welt eine schier unendliche Reichweite – eine
Skalierbarkeit – welcher durch Aufklärung, Entlastung und Befähigung
begegnet werden muss.“

Auch deshalb teilten Polzehl und Schmitt ihre Einschätzungen auf der
diesjährigen re:publica in Berlin. Doch selbst wenn Informationen und ein
kritischer Umgang in Kombination mit KI-Tools perspektivisch dazu
befähigen, Deepfakes verlässlicher zu erkennen – entschärft sind sie
dadurch nicht. Die Gefahren liegen hinter der künstlich erstellten
Fassade.

Tim Polzehl: „Selbst die Kennzeichnung von KI-generiertem Material schützt
nicht zwingend vor Beeinflussung durch diese Inhalte! Verschiedene Studien
zur Kennzeichnung lieferten die Erkenntnis, dass sich Menschen dennoch
beeinflussen lassen. Durch „Erkennen“ ist das Thema also nicht vom Tisch.
Es ist mein persönlicher Wunsch, dass wir als Gesellschaft die Bedeutung
von Desinformation größer einsortieren, sodass wir besser darauf
vorbereitet sind. Dann kann eine Kennzeichnung funktionieren, das Abfangen
von schädlichen Narrativen und Inhalten gelingen und ein besseres
Monitoring vollzogen werden. All das soll simultan zu einer Entlastung
aller Menschen geschehen, welche konsequent mit einer wachsenden Zahl von
Fälschungen konfrontiert werden. Und dedizierte Akteure dazu befähigen,
dem wachsenden Output gerecht zu werden.“

  • Aufrufe: 30

74 Prozent der Beschäftigten mit Tarifvertrag erhalten Urlaubsgeld – ohne Tarifvertrag sind es 36 Prozent

Neue Auswertung des WSI-Tarifarchivs

74 Prozent der Beschäftigten mit Tarifvertrag erhalten Urlaubsgeld – ohne
Tarifvertrag sind es 36 Prozent

Trotz sinkender Inflationsraten wird der Urlaub auch in diesem Sommer
teurer als im Vorjahr. Umso willkommener ist ein Zuschuss des
Arbeitsgebers zur Urlaubskasse: Fast die Hälfte der Beschäftigten in der
Privatwirtschaft (46 Prozent) erhalten Urlaubsgeld, das meist zusammen mit
dem Gehalt für den Juni oder Juli ausgezahlt wird. Zu diesem Ergebnis
kommt eine aktuelle Online-Befragung des Internet-Portals
http://www.lohnspiegel.de,  das vom Wirtschafts- und
Sozialwissenschaftlichen Institut (WSI) der Hans-Böckler-Stiftung betreut
wird. Für die Analyse wurden die Angaben von fast 68.000 Beschäftigten aus
dem Zeitraum von Anfang Mai 2023 bis Ende Mai 2024 ausgewertet.

Ob Beschäftigte Urlaubsgeld erhalten oder nicht, hängt von mehreren
Faktoren ab. Der mit Abstand wichtigste ist, ob im Betrieb ein
Tarifvertrag gilt: In tarifgebundenen Betrieben der Privatwirtschaft
erhalten rund drei Viertel (74 Prozent) der Befragten Urlaubsgeld,
verglichen mit 36 Prozent in Betrieben ohne Tarifvertrag (siehe auch
Abbildung 1 in der pdf-Version dieser PM; Link unten). Wichtig dabei: Wo
ein Tarifvertrag gilt, sind meist auch die Grundgehälter höher. „Das
Urlaubsgeld ist also ein echtes Extra für die Beschäftigten – und ein
gutes Argument für tarifgebundene Arbeitgeber, die auf der Suche nach
Fachkräften sind“, sagt WSI-Experte Dr. Malte Lübker. Allerdings ist die
Tarifbindung seit den 1990er Jahren in Deutschland deutlich
zurückgegangen, so dass nach Angaben des Instituts für Arbeitsmarkt- und
Berufsforschung (IAB) heute nur noch für knapp die Hälfte der
Beschäftigten (49 Prozent) ein Tarifvertrag gilt. Betrachtet man nur die
Privatwirtschaft, so ist die Tarifbindung mit 42 Prozent der Beschäftigten
noch einmal geringer.

Wer bekommt Urlaubsgeld? So stehen die Chancen nach Beschäftigten- und
Betriebsmerkmalen

Die Aussichten auf Urlaubsgeld steigen auch mit der Betriebsgröße:
In Großbetrieben mit über 500 Beschäftigten erhalten 59 Prozent der
Befragten Urlaubsgeld, in kleineren Betrieben mit unter 100 Beschäftigten
sind es hingegen nur 38 Prozent. Die bei größeren Arbeitgebern deutlich
höhere Tarifbindung ist hierfür eine wichtige Erklärung. In Ostdeutschland
sind die Aussichten auf Urlaubsgeld mit 34 Prozent schlechter als in
Westdeutschland (48 Prozent). Auch hier ist die Tarifbindung ein
entscheidender Faktor: Diese ist in Ostdeutschland mit 44 Prozent
niedriger als im Westen (51 Prozent). „Gerade nach den Inflationsschüben
der vergangenen beiden Jahre, die viele Menschen mit niedrigen und
mittleren Einkommen besonders getroffen haben, ist es ein Problem, ohne
Tarifvertrag bei Sonderzahlungen wie dem Urlaubsgeld leer auszugehen“,
sagt Prof. Dr. Bettina Kohlrausch, wissenschaftliche Direktorin des WSI.
Spürbar sind auch die Unterschiede zwischen Frauen (40 Prozent) und
Männern (50 Prozent). Dies lässt sich im Wesentlichen auf eine für Frauen
ungünstige Verteilung der Beschäftigtenzahlen nach Betriebsgrößen und
Berufsgruppen zurückführen.

Große Unterschiede in der Höhe des tariflichen Urlaubsgeldes

Wie hoch das tarifliche Urlaubsgeld ausfällt, hängt von den genauen
Regelungen in den einzelnen Tarifverträgen ab – und die unterscheiden sich
zum Teil erheblich: Die Spannweite reicht in diesem Jahr von 186 Euro für
die Beschäftigten in der Landwirtschaft in Mecklenburg-Vorpommern bis zu
2.686 Euro in der Holz und Kunststoff verarbeitenden Industrie. Die
Angaben beziehen sich jeweils auf Beschäftigte in der mittleren
Vergütungsgruppe (ohne Berücksichtigung von Zulagen/Zuschlägen, bezogen
auf die Endstufe der Urlaubsdauer).

Das zeigt die aktuelle Auswertung des WSI-Tarifarchivs für ausgewählte
Tarifbranchen. Neben der Landwirtschaft ist das Urlaubsgeld auch im Hotel-
und Gaststättengewerbe relativ niedrig: In Bayern erhalten
Tarifbeschäftigte 240 Euro extra, in Sachsen sind es 195 Euro.

Deutlich höher sind die Sonderzahlungen unter anderem in der Papier
verarbeitenden Industrie, in der Metallindustrie, in der Druckindustrie,
im Kfz-Gewerbe, im Versicherungsgewerbe, im Einzelhandel, im
Bauhauptgewerbe und in der Chemischen Industrie (siehe Abbildung 2 sowie
die Tabellen 1 und 2 in der pdf-Version).

In Branchen oder Großunternehmen, in denen bundesweite Tarifverträge
gelten, gibt es auch beim Urlaubsgeld keine Ost-West-Unterschiede mehr.
Hierzu zählen etwa das Versicherungsgewerbe, das Gebäudereinigungshandwerk
und die Deutsche Bahn AG. Auch in der Druckindustrie und der Chemischen
Industrie gibt es ein einheitliches Urlaubsgeld. In Branchen, in denen
regional differenzierte Tarifverträge abgeschlossen werden, bestehen
hingegen auch bei der Höhe des Urlaubsgeldes regionale Unterschiede. So
werden im Einzelhandel in Brandenburg 1.395 Euro ausgezahlt, in Nordrhein-
Westfalen sind es hingegen 1.491 Euro.

Im öffentlichen Dienst gibt kein gesondertes Urlaubsgeld mehr, da es seit
der Tarifreform des Jahres 2005 zusammen mit dem Weihnachtsgeld als
einheitliche Jahressonderzahlung im November ausgezahlt wird. Auch im
Bankgewerbe und in einigen Branchentarifverträgen der Energiewirtschaft
gibt es kein tarifliches Urlaubsgeld. Eine Besonderheit gilt in der Eisen-
und Stahlindustrie: Dort ist die Höhe der jährlichen Sonderzahlungen auf
insgesamt 110 Prozent eines Monatsentgelts festgelegt – wobei offen
gelassen wird, wie sich dies auf Urlaubs- und Weihnachtsgeld verteilt.

Von den 17 untersuchten Branchen mit tariflichem Urlaubsgeld hat sich
dieses gegenüber dem Vorjahr in 8 Branchen erhöht, in drei weiteren
Branchen sind zumindest in einigen Tarifgebieten Erhöhungen in Kraft
getreten. Steigerungen gab es insbesondere in jenen Branchen, in denen das
Urlaubsgeld als Prozentsatz der Tarifentgelte festgelegt wird. Hierzu
gehören im Jahr 2024 die Druckindustrie, das Gebäudereinigungshandwerk,
das Kfz-Gewerbe, die Metallindustrie, die Papier verarbeitende Industrie
und das Versicherungsgewerbe. Die Erhöhungen des Urlaubsgeldes folgten
demnach den allgemeinen Tariferhöhungen und lagen überwiegend zwischen 1,5
Prozent in der Druckindustrie und 5,2 Prozent in der Metallindustrie.
Deutlich mehr gibt es in diesem Jahr auch für Tarifbeschäftigte im
Einzelhandel Nordrhein-Westfalen (plus 5,3 Prozent) sowie in der
Bekleidungs- und der Textilindustrie, wo die Steigerung gegenüber dem
Vorjahr jeweils gut 8 Prozent beträgt.

Tarifverträge bringen zusätzliche Urlaubstage

„Was vielen nicht bewusst ist: Neben Geld für die Urlaubskasse bringen
Tarifverträge auch zusätzliche Urlaubstage“, sagt WSI-Forscher Malte
Lübker. Nach dem Bundesurlaubsgesetz haben Arbeitnehmer*innen nur einen
Anspruch auf 4 Wochen Erholungsurlaub im Jahr. Bei einer 6-Tage-Woche
entspricht dies 24 Urlaubstagen, bei der weit gängigeren 5-Tage-Woche muss
der Arbeitgeber 20 Tage Erholungsurlaub gewähren. In Tarifverträgen sind
hingegen 6 Wochen (30 Urlaubstage) üblich (siehe Tabelle 1 und 2).
Ausnahmen gibt es nur vereinzelt, wie in der Bayerischen Landwirtschaft
oder in der Holz und Kunststoff verarbeitenden Industrie Sachsens (jeweils
28 Tage).

Auch gut zu wissen: Wer während des Urlaubs krank wird, sollte sich
unbedingt ein ärztliches Attest besorgen und dieses nach Rückkehr beim
Arbeitgeber einreichen. Die so nachgewiesenen Tage der Arbeitsunfähigkeit
werden dann nicht auf den Jahresurlaub angerechnet. „Wenn es dabei
Probleme gibt, hilft meist schon ein freundlicher Hinweis auf § 9 des
Bundesurlaubsgesetzes“, so Lübker. „Wenn das nichts bringt, lohnt es sich
unter Umständen auch, den Betriebsrat oder den Rechtsschutz der
Gewerkschaft einzuschalten.“

Informationen zur WSI-Lohnspiegel-Datenbank

Für die Auswertung zur Häufigkeit von Urlaubsgeld wurden die Angaben von
67.880 Beschäftigten ausgewertet, die zwischen dem 1. Mai 2023 und dem 31.
Mai 2024 an einer kontinuierlichen Online-Erhebung des WSI-Portals
http://www.lohnspiegel.de teilgenommen haben. Die Umfrage ist nicht
repräsentativ, erlaubt aber aufgrund der hohen Fallzahlen detaillierte
Einblicke in die Arbeitswelt. Nicht berücksichtigt wurden Beschäftigte des
öffentlichen Dienstes, bei denen das Urlaubs- und Weihnachtsgeld seit der
Tarifreform des Jahres 2005 in einer einzigen Jahressonderzahlung
zusammengefasst wird. http://www.lohnspiegel.de ist ein nicht-
kommerzielles Angebot der Hans-Böckler-Stiftung.

  • Aufrufe: 24