Von Jacob Feder & Christian Schultz, LL.M. (King's College London)

Es gibt eine neue EU-Verordnung, die den Umgang mit der Künstlichen Intelligenz regelt und die stufenweise volle Geltung erlangt. Für viele Unternehmen ist die tatsächliche Belastung durch diese neue KI-Verordnung (EU) 2024/1689 bislang aber überschaubar.
Aber sobald KI als Sicherheitsbauteil im Aufzug zum Einsatz kommt, gelten viele zusätzliche Regeln für das Konformitätsbewertungsverfahren, die unbedingt zu beachten sind. Scharf geschaltet werden diese Pflichten – spätestens – zum 2. August 2027, für manche Einsatzbereiche aber schon zum 2. August 2026.
Damit die Zertifizierung am Ende des Konformitätsbewertungsverfahrens (CE-Kennzeichnung) später gelingt, ist aber schon bei der Entwicklung, der Beschaffung und Einbindung der KI einiges zu beachten. Insbesondere Hersteller von Anlagen und Komponenten sollten sich deshalb frühzeitig Klarheit verschaffen, ob ihre Entwicklungspipeline den strengen Regeln für Hochrisiko-KI unterliegt.
Nicht bloß ChatGPT: Was ist KI nach der KI-Verordnung?
KI ist ein Sammelbegriff. In der Presse sind meist generative KI-Systeme wie ChatGPT gemeint. Auch die KI-Verordnung hat sogenannte "KI-Modelle mit allgemeinem Verwendungszweck" noch kurz vor Schluss in die KI-Verordnung aufgenommen. So wichtig der geschulte Umfang mit diesen Tools allgemein im Unternehmen ist (z. B. bei der Verwendung im Zusammenhang mit Kundendaten oder Geschäftsgeheimnissen), aus ihnen ergeben sich kaum spezifische Implikationen für die Aufzugsbranche.
Die KI-Verordnung ist aber viel breiter. Danach ist ein KI-System jedes technische System, das teilweise autonom und damit eigenständig aus Eingaben (Signale/Befehle) ein Ergebnis/Ziel ableiten kann. Die Definition ist oft fließend, als Faustregel gilt: Kann ich bereits vor Einsatz der Technik anhand etwa eines einfachen Baumdiagramms jede vorgesehene Kombination aus Eingabe und Ergebnis abbilden? Falls ja, ist es vermutlich keine KI.
Die KI-Verordnung nutzt einen risikobasierten Ansatz: KI-Systeme werden je nach Risikopotenzial in Kategorien eingeordnet und entsprechend abgestuft reguliert.
Die entscheidende Frage:
Zu welcher Risikoklasse gehört mein KI-System?

Für Unternehmen im Aufzugssektor und Betreiber lautet in den kommenden Monaten die wichtigste Frage: Habe ich es mit einer Hochrisiko-KI im Sinne der KI-Verordnung zu tun? Die Antwort hierauf stellt die Weichen, ob es für Unternehmen im Wesentlichen "nur" um Transparenzpflichten und Ähnliches geht oder die gesamte Zertifizierung und Konformitätsbewertung der Produkte in den Blick genommen werden muss.
Es gibt vier Risikoklassen – in absteigender Bedeutung für die Pflichten unter der KI-Verordnung:
Unannehmbares Risiko – Verbotene KI-Systeme: KI-Systeme, die etwa für diskriminierendes Social Scoring eingesetzt werden, sind komplett untersagt.
Hohes Risiko – Hochrisiko-KI-Systeme: Diese KI-Systeme weisen ein hohes Gefahrenpotenzial für Sicherheit, Gesundheit oder Grundrechte auf. Solche Hochrisiko-KI darf dann nur angeboten und betrieben werden, wenn strenge Anforderungen erfüllt sind – u. a. Risiko- und Qualitätsmanagement, technische Dokumentation, menschliche Aufsicht – und eine Konformitätsbewertung erfolgreich durchlaufen wurde.
Ein Beispiel wäre KI in einem Sicherheitsbauteil eines Aufzugs oder einer Komponente, die einer EU-Konformitätserklärung unterliegt (vgl. Art. 6 Abs. 1 und Anhang I Nr. 4 der KI-Verordnung). Unternehmen sollten sicherstellen, dass sie – spätestens – zum 2. August 2027 über aktualisierte Konformitätsbescheinigungen und Zertifikate verfügen.
• Auch der Einsatz von KI zur Bewertung und Klassifizierung von Notrufen wird von der KI-Verordnung ausdrücklich erwähnt (vgl. Art. 6 Abs. 2 und Anhang III Nr. 5d) der KI-Verordnung). Hier müssen Unternehmen ggf. sogar schon zum 2. August 2026 nach den neuen Regeln konform aufgestellt sein.
Begrenztes Risiko – KI-Systeme mit Transparenzpflicht: Für einige KI-Anwendungen schreibt die Verordnung spezifische Transparenzpflichten vor. Das gilt vor allem dort, wo das KI-System direkte Interaktion mit Nutzern ermöglicht (etwa ein sprachgesteuerter Assistent), oder wenn Nutzern mit KI generierte Inhalte angezeigt werden. Die Nutzer sollen hier die Beteiligung von KI erkennen können.
Geringes Risiko – Übrige KI-Systeme: Der Großteil aller KI-Systeme fällt in diese Kategorie. Für normale oder niedrig riskante KI-Anwendungen (etwa Empfehlungsalgorithmen ohne sensiblen Einflussbereich) gelten keine besonderen Vorgaben der KI-Verordnung. Sie können aber unter andere nationale und EU-Gesetzgebung fallen.
Rollen nach der KI-Verordnung
Wichtig ist zudem, in welcher Rolle ein Unternehmen die Pflichten unter der KI-Verordnung trifft. Die wichtigsten Akteure sind "Anbieter" und "Betreiber":
• Als "Anbieter" gilt, wer ein KI-System unter seinem Namen in Verkehr bringt oder in Betrieb nimmt – typischerweise also der Hersteller oder Entwickler.
• Alle, die ein KI-System in eigener Verantwortung nutzen, also der Anwender im Geschäftsbetrieb (etwa ein Unternehmen, das KI-Software einsetzt).
Stellt man fest, dass die genutzte KI ein begrenztes oder sogar hohes Risiko aufweist, ist die Rollenbestimmung entscheidend. Denn dann bestehen für die Pflichten zwischen Betreiber und Anbieter erhebliche Unterschiede.
Der Kern der Anforderungen wird vom Anbieter (Hersteller) getragen. Entscheidend ist dabei nicht, ob die KI selbst entwickelt wurde, es reicht, dass sie unter dem eigenen Handelsnamen oder als Teil des eigenen Produkts auf den Markt gebracht wird. Besonders relevant ist diese Stellung, falls KI-Systeme doch einmal in den Bereich der Hochrisiko-KI fallen. Dann trifft den Anbieter etwa die Pflicht zur Durchführung des vorgeschriebenen Konformitätsbewertungsverfahrens vor dem Inverkehrbringen. Wird KI auf ein schon zertifiziertes Produkt aufgesattelt, darf man die Aktualisierung der Zertifizierung nicht vergessen.
Es liegt nahe, dass Betreiber der Aufzugsanlage auch Betreiber des jeweiligen KI-Tools sind. Auch hier werden die Pflichten vor allem bei Hochrisikosystemen kritisch. Daneben bestehen aber auch hier eventuell Transparenzpflichten.
KI in Aufzugssystemen: Relevanz und Anwendungsfälle
Die letzten Jahre haben gezeigt, wie rasant KI Innovationen in Wirtschaftszweige bringen kann. Typische Einsatzbereiche im Aufzugssektor zeigen sich jetzt schon:
• Vorausschauende Wartung und Störungsprognose: KI-Systeme analysieren Sensordaten von Aufzügen, um Wartungsbedarfe frühzeitig zu erkennen und Ausfälle vorherzusagen. So kann ein Wartungsunternehmen etwa mittels Machine Learning mögliche Störungen antizipieren und Serviceeinsätze planen, bevor ein Stillstand auftritt.
• Personenzählung und Nutzungsanalyse: Durch Kameras oder Sensoren kann KI Personen im Aufzug zählen, Verkehrsströme im Gebäude analysieren und die Aufzugsteuerung optimieren. Beispielsweise lässt sich die Auslastung einzelner Aufzüge prognostizieren, um häufig besuchte Stockwerke direkt anzusteuern und Wartezeiten zu minimieren.
• Sprachbasierte Interaktion: Aufzügemit integrierten Sprachassistenten erlauben eine sprachgestützte Bedienung – werden diese Systeme in Zukunft komplexer, können sie ein KI-System darstellen. Besonders relevant wäre das bei einer Integration in den Notruf.
Aus Sicht der KI-Verordnung sind diese Anwendungsfälle überwiegend dem geringen oder begrenzten Risiko zuzuordnen. Dennoch muss hier an Transparenzpflichten zusammen mit der ausreichenden Berechtigung zur Verwendung von Nutzungsdaten gedacht werden.
Fazit
Der Sprung in den Bereich der Hochrisiko-KI muss aber gerade in der Aufzugsbranche immer im Blick behalten werden. Rechtlich relevant ist dabei vor allem der Einsatz von KI im Umfeld eines Sicherheitsbauteils. Die Definition der KI-Verordnung selbst ist weit und das Zusammenspiel mit den Begriffen der EU-Aufzugsrichtlinie nicht eindeutig.
Die KI-Verordnung ist deswegen für die meisten Unternehmen mit überschaubaren Pflichten verbunden. Mit Blick auf die eigene Entwicklungspipeline und den erforderlichen Vorlauf für das Konformitätsbewertungsverfahren gilt es aber, sich Klarheit zur Frage zu verschaffen: Entwickeln wir gerade ein Hochrisiko-KI-System?
Die Autoren beraten als Rechtsanwalt und Fachanwalt für IT-Recht bei der internationalen Wirtschaftskanzlei Fieldfisher.
Weitere Informationen: Lesen Sie mehr dazu unter lift-journal.de/data-act
fieldfisher.com
Kommentar schreiben