14.53

Staatssekretär im Bundesministerium für Finanzen Florian Tursky, MBA MSc: Lieber Marco, vielen Dank für den Input. Ich muss aber trotzdem sagen, dass die gängigen KI-Systeme aktuell schon so gut geschult sind, dass es durchaus erkannt würde, wenn du ihnen den Auftrag geben würdest, eine tolle Rede über die Grünen für Christoph zu schreiben, und sie dir wahrscheinlich antworten würden: Das hättest du wohl gerne! (Allgemeine Heiterkeit. – Zwischenruf des Bundesrates Steiner.)

Meine sehr geehrten Damen und Herren, das war ein bisschen etwas zur Aufheiterung.

Die künstliche Intelligenz – und ich danke Bundesrat Obrecht sehr für seine Ausführungen – führt tatsächlich zu unglaublich vielen Sorgen und Ängsten in der Bevölkerung, und das insbesondere, weil wir dabei in den vergangenen Jahren eine enorme Veränderung erfahren haben.

Künstliche Intelligenz – das wissen wir sowohl von der Arbeitnehmerseite als auch von der Arbeitgeberseite – wird seit Jahrzehnten bereits in Industrie und Wirtschaft eingesetzt. Das ist nichts Außergewöhnliches und hat auch in vielen Bereichen gerade der Forschung und Wissenschaft dazu geführt, dass wir enorme Fortschritte gemacht haben. Deshalb hat sich auch die Europäische Union bereits seit einigen Jahren mit dem Thema AI-Act, künstliche Intelligenz, also einem Rechtsrahmen für die künstliche Intelligenz, beschäftigt, mit dem großen Unterschied, dass ich weder in der österreichischen Medienlandschaft noch in der österreichischen Bevölkerung vor eineinhalb Jahren, wenn ich über den AI-Act gesprochen habe, irgendjemanden hinter dem Ofen hervorgebracht hätte. Das Thema war nicht auf der Agenda.

Das hat sich dann schlagartig geändert, als es leider wieder einmal einen amerikanischen Hyperscaler gebraucht hat, der eine App programmiert hat, ganz einfach, mit einer Chatfunktion, mit der jeder ausprobieren konnte, was denn eine generative künstliche Intelligenz ist.

Plötzlich hatte eben dadurch auch jeder eine Vorstellung, was denn das sein kann und welche Folgen das haben kann, welche auch persönlichen Folgen für den eigenen Beruf oder die eigene Tätigkeit das haben kann. Damit – und ich nehme das eigentlich als positiv – hat schon ein Aufwachen in der Politik, aber auch in der gesamten Bevölkerung stattgefunden, sich damit zu beschäftigen.

Vorweg möchte ich aber sagen – darauf werde ich noch ein-, zweimal kurz zurückkommen –: Wichtig ist für uns schon, die Chancen der künstlichen Intelligenz als Erstes zu sehen, aber auch wenn es diese Chancen gibt, die Risiken nicht aus den Augen zu verlieren.

Mit all dem beschäftigen sich die KI-Servicestelle und auch der AI-Act: wie wir einerseits gerade in dieser Zangensituation Europas zwischen China, Indien auf der einen Seite und den Vereinigten Staaten auf der anderen Seite die Chancen der künstlichen Intelligenz nutzen können, um unseren Standort abzusichern, um unsere Wissenschaft und Forschung zu befeuern, um in der Medizin neue Fortschritte zu machen, wie auf der anderen Seite aber das, was wir als digitalen Humanismus verstehen, das, was wir als Regeln des Zusammenlebens, auch als Rechtsnormen in der analogen Welt verstehen, nicht verloren geht.

Dazu gehören genauso Arbeitnehmerrechte – KI am Arbeitsplatz wird uns noch enorm beschäftigen –, aber auch Dinge wie Deepfakes, Fakenews oder auch Cyberkriminalität. All dem widmet sich die Europäische Union nicht erst seit dem AI-Act.

Da möchte ich auch das ansprechen, was Sie (in Richtung Bundesrat Obrecht) gesagt haben. Bei ganz, ganz vielen Punkte, die von Ihnen angesprochen wurden, geht es um das prinzipielle Verhältnis zwischen Plattform und User. Da haben wir – und das tritt exakt morgen in Kraft – den sogenannten Digital Services Act, wahrscheinlich die maßgeblichste europäische Gesetzgebung im digitalen Feld, die sich genau damit beschäftigt: mit den Rechten der Bürgerinnen und Bürger gegenüber den großen Hyperscalern.

Wir haben in Österreich hierzu auch vor Kurzem das DAS-Begleitgesetz erlassen, mit der KommAustria, das genau an diese Stelle tritt, das auch zu exekutieren und für die Bürgerinnen und Bürger da zu sein, diese Rechte auch einzufordern. Das steht auf der einen Seite.

Jetzt geht es um den AI-Act. Der AI-Act hat eine wahrscheinlich bis jetzt für EU-Regulierungen eher untypische Art und Weise, an die Sache heranzugehen. Wir sprechen von einem risikobasierten Ansatz. Es gibt Anwendungen mit geringem Risiko, mittlerem Risiko, hohem Risiko, unannehmbarem Risiko. Die Europäische Union hat gesagt – und das ist aus meiner Sicht hochintelligent; es wird auch von allen so beschieden –: Wir teilen nicht die KI selber ein, sondern den Anwendungsfall!

Wir teilen also die KI zum Beispiel im Anwendungsfall der HR als Hochrisikoanwendung ein. Wir teilen die künstliche Intelligenz in der Anwendung im Versicherungswesen – ein Punkt, den ich eingebracht habe, weil ich nicht will, dass das uneingeschränkt verwendet werden kann – als Hochrisikoanwendung ein. Oder: Wir teilen auch Anwendungen, die wir in Europa bewusst nicht haben wollen, weil sie nicht unserem Menschenbild entsprechen, zum Beispiel das Social Scoring, als unannehmbares Risiko ein, sodass das nicht sein darf.

Für all das braucht es eine nationale rechtliche Durchsetzung. Deshalb werden in allen EU-Mitgliedstaaten sogenannte KI-Behörden in irgendeiner Art und Weise eingeführt werden. Das heißt aber, wir müssen uns jetzt darauf vorbereiten, wie wir das rechtlich entsprechend durchsetzen. Das heißt, wenn sich dann die betroffenen Personen zum Beispiel aus dem HR-Bereich oder auch die von Ihnen angesprochenen Personen durch eine Anwendung benachteiligt fühlen, können sie jemanden anrufen. Das wird diese KI-Servicestelle, die dann in eine KI-Behörde übergeht, dann leisten müssen, wenn sie eine KI-Behörde ist und sich dadurch dann mit dem Inkrafttreten des AI-Acts auf die Rechtsbasis durch den AI-Act berufen kann. (Vizepräsident Reisinger übernimmt den Vorsitz.)

Die zweite Aufgabe wird aber sein: Wie schaffen wir Rechtssicherheit für die Unternehmerinnen und Unternehmer? Wie können wir es schaffen, dass wir über Österreich KI-Anwendungen europaweit in den Markt bringen und bei uns zertifizieren können? Das sollte aus unserer Sicht möglichst schnell passieren, damit wir einen Wettbewerbsvorteil haben – deshalb auch die KI-Servicestelle mit diesem Fokus auf Unternehmerinnen und Unternehmer, die sich auch jetzt schon an sie wenden können, was ich für eine wichtige Sache halte, weil wir einmal Gott sei Dank nicht spät dran sind.

Normalerweise werde ich hier dafür kritisiert, dass wir irgendetwas zu spät umsetzen: auf nationaler Ebene eine EU-Richtlinie oder eine EU-Verordnung. Diesmal ist es eben Gott sei Dank so, dass wir etwas früher dran sind.

Damit einhergehend wird es eine ganz wichtige Transparenzverpflichtung geben, der Kollege von der FPÖ hat das richtig gesagt. Das Wichtigste wird nämlich sein, den Bürgerinnen und Bürgern jederzeit mitzuteilen: Jetzt sind Sie mit einer künstlichen Intelligenz konfrontiert. Der KI-Servicestelle wird ein KI-Beirat zur Seite gestellt, der aus Wissenschaftler:innen und Forscher:innen besteht. Das passiert ganz gezielt, weil es da aus unserer Sicht einerseits um ethische Fragen in der Wissenschaft, andererseits aber um wirtschaftswissenschaftliche, aber auch um technische Aspekte geht und mit einer wissenschaftlichen Betrachtungsweise vorgegangen wird. Parallel dazu wird es das Stakeholderforum geben, bei dem die Sozialpartnerinnen und Sozialpartner, NGOs, Datenschützerinnen und Datenschützer dabei sind, um sich in diesen Prozess einzubringen.

Ich bin sehr froh, dass wir das heute hoffentlich abschließen können. Die KI-Servicestelle wird eine der ersten in ganz Europa sein – nur Spanien und die Niederlande sind bereits ähnlich weit wie wir. Wir positionieren uns hier hoffentlich auch als Frontrunner, wenn es darum geht, Trustworthy AI – KI, der die Menschen vertrauen können – in Österreich in den Verkehr zu bringen. –Vielen herzlichen Dank! (Beifall bei ÖVP und Grünen.)

15.01

Vizepräsident Dominik Reisinger: Danke, Herr Staatssekretär.

Als Nächste zu Wort gemeldet ist Frau Bundesrätin Elisabeth Wolff. Ich erteile ihr dieses. – Bitte.