Künstliche Intelligenz (KI) hat das Geschäftsumfeld in verschiedenen Sektoren verändert, angetrieben durch die Notwendigkeit, Prozesse zu optimieren, Dienstleistungen zu verbessern und für mehr Wettbewerbsfähigkeit zu sorgen. Daher ist es in Brasilien nicht anders: Große Unternehmen haben ihre Aufmerksamkeit auf KI-Lösungen gerichtet, die einen Mehrwert schaffen und Innovationen in Schlüsselbereichen wie Kundenservice, Datenanalyse und Aufgabenautomatisierung bieten. In diesem Sinne wird die Bedeutung der sogenannten „AI Governance“ deutlich, einem systematischen Ansatz, der darauf abzielt, sicherzustellen, dass der Einsatz von KI ethisch und sicher ist und den vertraglichen Regeln entspricht, die Beziehungen sowie rechtliche und regulatorische Standards durchdringen.
Aus diesem Grund möchte dieser Artikel die Grundlagen, Herausforderungen und Strategien für eine effiziente KI-Governance vorstellen, insbesondere für große Organisationen, die sich an Marktanforderungen und aktuelle Gesetzgebung anpassen möchten.
Erstens kann AI Governance als eine Reihe von Richtlinien, Verfahren, Strukturen und Praktiken verstanden werden, die die Entwicklung, Implementierung und Wartung von Lösungen für künstliche Intelligenz in Organisationen leiten.
Im Gegensatz zur IT Governance, die sich traditionell auf Infrastruktur, Software und Support konzentriert, geht es bei der AI Governance auch um Aspekte wie Ethik, Transparenz und Verantwortlichkeit bei der Nutzung von Algorithmen und Daten. In diesem Sinne bringt eine gut etablierte Governance erhebliche Vorteile mit sich, wie etwa größeres Vertrauen der Stakeholder und geringere Rechts- und Reputationsrisiken.
Unternehmen, die keine klaren Richtlinien für den Einsatz von KI festlegen, können mit Vertragsproblemen bis hin zu Gerichtsverfahren konfrontiert werden, da die Rechenschaftspflicht für automatisierte Entscheidungen in Brasilien immer noch ein Diskussionsthema ist.
KI-Systeme basieren oft auf robusten Datenbanken, und der Schutz dieser Daten ist unerlässlich, um Lecks und Cyberangriffe zu verhindern.
Mit voreingenommenen Daten trainierte Algorithmen können Diskriminierung und Ungleichheiten aufrechterhalten oder sogar verschlimmern. Wenn beispielsweise keine Kontrolle über die im Training verwendeten Daten besteht, können die Folgen noch schwerwiegender sein. Daher ist die Umsetzung von Kontrollmaßnahmen unerlässlich, um Reputationsschäden zu vermeiden und das Vertrauen von Kunden und Partnern zu wahren.
Das Allgemeine Datenschutzgesetz (LGPD) sieht strenge Verpflichtungen zur Erhebung, Speicherung und Nutzung personenbezogener Daten vor. Daher kann die Nichteinhaltung gesetzlicher Vorgaben neben einem Imageschaden auch hohe Bußgelder und Sanktionen nach sich ziehen.
Die öffentliche Wahrnehmung des verantwortungsvollen Einsatzes von KI kann sich direkt auf den Aufbau und die Pflege von Marken auswirken. Denn Transparenz und gute Praktiken schaffen Glaubwürdigkeit bei Verbrauchern, Investoren und Geschäftspartnern.
Das LGPD legt Grundsätze wie Zweck, Angemessenheit und Notwendigkeit bei der Verarbeitung personenbezogener Daten fest. Daher müssen KI-Projekte diese Richtlinien bereits in der Entwurfsphase berücksichtigen, um die Privatsphäre der betroffenen Personen zu gewährleisten und eine unangemessene Offenlegung sensibler Informationen zu vermeiden.
Organisationen müssen Vertragsklauseln überprüfen und anpassen, um Verantwortlichkeiten, Prüfmethoden und Sicherheitsstandards im Zusammenhang mit der Erhebung und Verarbeitung von Daten für KI festzulegen. Auf diese Weise können sie Risiken reduzieren und sicherstellen, dass ihre Partnerschaften den aktuellen Vorschriften entsprechen.
Gesetzentwurf Nr. 2338/2023Der Antrag, der derzeit in der Abgeordnetenkammer bearbeitet wird, zielt darauf ab, allgemeine Standards für die Entwicklung und Anwendung von KI in Brasilien festzulegen. Obwohl der Text noch nicht verabschiedet wurde, bietet er einen wichtigen Leitfaden für Unternehmen und andere Akteure, die sich vorab an die wichtigsten Regulierungspunkte anpassen möchten.
I – Recht auf Vorabinformation: Der Einzelne hat das Recht zu erfahren, wann er mit einem KI-System interagiert, was Transparenz über den automatisierten Charakter der erbrachten Pflege oder Dienstleistung impliziert.
II – Recht auf Aufklärung: Jede von KI getroffene Entscheidung, Empfehlung oder Vorhersage muss aufklärbar sein. Dies erfordert ebenfalls, dass Unternehmen Mechanismen zur Interpretierbarkeit von Algorithmen einführen oder zumindest die bei der Entscheidungsfindung verwendeten Kriterien auf verständliche Weise erläutern.
III – Recht auf Anfechtung von Entscheidungen: Wenn eine Entscheidung oder Vorhersage rechtliche Auswirkungen hat oder erhebliche Auswirkungen auf den Inhaber hat, hat die Person das Recht, Fragen zu stellen und eine Überprüfung zu verlangen, was auch die Notwendigkeit eines menschlichen Eingreifens einschließen kann, um zu beurteilen, ob die Entscheidung fair oder richtig war.
IV – Recht auf menschliche Bestimmung und Teilhabe: Der Gesetzentwurf bekräftigt, dass es je nach Kontext und technologischem Stand einen Menschen geben muss, der in der Lage ist, KI-Entscheidungen einzugreifen oder zu überwachen und eine Automatisierung zu vermeiden, die gegenüber sozialen oder individuellen Konsequenzen völlig blind ist.
V – Recht auf Nichtdiskriminierung und Korrektur von Vorurteilen: Unternehmen müssen sicherstellen, dass ihre KI-Systeme Voreingenommenheit und Diskriminierung nicht aufrechterhalten oder verstärken. Darüber hinaus müssen, wenn diese Verzerrungen festgestellt werden, Korrektur- oder Abhilfemaßnahmen ergriffen werden.
VI – Recht auf Privatsphäre und Schutz personenbezogener Daten: Wie das LGPD bekräftigt der Gesetzentwurf, dass die Verarbeitung personenbezogener Daten strikt im Einklang mit den einschlägigen Rechtsvorschriften erfolgen muss, einschließlich Grundsätzen wie Zweck, Transparenz und Sicherheit.
Der einzige Absatz von Artikel 5 verpflichtet KI-Agenten dazu, die für die Ausübung dieser Rechte erforderlichen Verfahren auf klare und zugängliche Weise bereitzustellen. Auch wenn das Projekt kein in Kraft stehendes Gesetz ist, können Unternehmen, die solche Bestimmungen antizipieren, von der Vermeidung künftiger rechtlicher Verpflichtungen profitieren und zusätzlich einen besseren Ruf auf dem Markt aufbauen.
Der Bundesrat der OAB hat Leitlinien zum Einsatz von KI im Rechtsbereich veröffentlicht und damit die Notwendigkeit von Transparenz, Verlässlichkeit und Achtung der Privatsphäre bekräftigt. Dadurch können diese Richtlinien sowohl Einfluss auf die Rechtsbranche als auch auf Unternehmen haben, die auf eine auf KI-Projekte spezialisierte Rechtsberatung angewiesen sind. In diesem Sinne sind die Hauptaspekte:
Obwohl diese Verweise auf die Rechtspraxis abzielen, unterstreichen sie die Notwendigkeit, bestehende Standards einzuhalten und den Datenschutz und die Rechte Dritter zu respektieren.
Die Richtlinien unterstreichen, wie wichtig es ist, die Vertraulichkeit der in KI-Systeme eingegebenen Informationen zu gewährleisten, die Sicherheit von Lieferanten zu bewerten und sicherzustellen, dass Daten nicht ohne entsprechende Zustimmung zum Trainieren von Systemen verwendet werden. Darüber hinaus steht diese Sorgfalt im direkten Dialog mit den vom LGPD geforderten Compliance- und Konformitätsanforderungen.
Der Einsatz von KI, insbesondere generativer KI, sollte kein professionelles Urteilsvermögen ersetzen oder Tätigkeiten ausführen, die ausschließlich dem Recht vorbehalten sind. Darüber hinaus wird die Relevanz kontinuierlicher Schulung hervorgehoben, damit Fachkräfte die Grenzen und Risiken der Technologie verstehen. Obwohl dieser Punkt auf forensische Aktivitäten abzielt, können Organisationen aus jedem Segment etwas über die Notwendigkeit lernen, bei KI-Anwendungen stets eine menschliche und ethische Überwachung aufrechtzuerhalten.
Die Richtlinien legen Wert auf Transparenz gegenüber Kunden und bewerten die Einschränkungen und Risiken jeder Anwendung. Auf das Unternehmensumfeld im Allgemeinen übertragen, verstärken diese Empfehlungen die bewährte Praxis, Partner und Verbraucher über die Einführung von KI zu informieren und Möglichkeiten und mögliche Einschränkungen zu klären, was zu einer vertrauenswürdigeren und ethischeren Beziehung beiträgt.
Diese Richtlinien des OAB-Bundesrats verdeutlichen, dass die KI-Governance auch in stark regulierten Sektoren von Transparenz, Respekt für die Privatsphäre und der Anwendung spezifischer ethischer Standards geleitet werden muss. Darüber hinaus dienen sie als Rahmen, der Unternehmensrichtlinien in verschiedenen Bereichen inspirieren kann, da sie sich mit Themen befassen, die die KI-Governance übergreifen, wie etwa Vertraulichkeit, Sicherheit, Schulung und Verantwortung.
Die KI-Regulierung entwickelt sich tendenziell schnell weiter und erfordert von Unternehmen eine kontinuierliche Überwachung von Gesetzen und Vorschriften sowie eine ständige Aktualisierung interner Praktiken, um etablierte Standards zu erfüllen.
Der verantwortungsvolle Einsatz von KI kann zu einem Differenzierungsmerkmal im Wettbewerb werden und die Wertwahrnehmung der Marke auf dem Markt steigern. Vorfälle von Missbrauch, Datenlecks oder Voreingenommenheit in Algorithmen können jedoch zu großflächigen Bildkrisen führen. Daher stärkt die Umsetzung einer transparenten Kommunikation in Kombination mit soliden Governance-Maßnahmen die Beziehungen zu Kunden, Mitarbeitern und Investoren und fördert eine Vertrauens- und Innovationsposition.
Entscheidungsträger müssen sicherstellen, dass die Organisation über die notwendigen Richtlinien und Ressourcen für die sichere und ethische Entwicklung von KI verfügt und dabei regulatorische Grenzwerte und gute Marktpraktiken beachtet.
Die Geschäftsleitung muss die Risiken und Vorteile jeder Initiative sorgfältig bewerten und sich dabei auf technische Berichte, Rechtsgutachten und Wirkungsanalysen stützen, um Prioritäten festzulegen und Investitionen zu genehmigen.
KI-Governance erfordert eine multidisziplinäre Anstrengung. Der kontinuierliche Dialog zwischen verschiedenen Bereichen, also die Zusammenarbeit verschiedener Sektoren, schafft Synergien, erleichtert die Umsetzung robuster Lösungen und gewährleistet die Kompatibilität mit den allgemeinen Strategien des Unternehmens.
Mehrere Unternehmen haben KI erfolgreich für Kreditanalysen, Produktempfehlungen und Betrugspräventionsprozesse eingesetzt. Im Allgemeinen verfügen diese Projekte über eine solide Governance-Struktur und multidisziplinäre Teams.
Eine erfolgreiche Anwendung ist beispielsweise der Einsatz von KI für den automatisierten Service über WhatsApp, wobei das System auf Basis der unternehmenseigenen Datenbank inklusive Produkt- und Servicekatalogen trainiert wird.
Diese Lösung beschleunigt und verbessert die Servicegenauigkeit, senkt die Betriebskosten und sorgt für ein agileres Kundenerlebnis. Allerdings wird die Modellschulung mit Vorsicht durchgeführt, um Datenschutzverletzungen zu vermeiden und die Einhaltung der LGPD sicherzustellen. Ebenso muss der Benutzer ordnungsgemäß darüber informiert werden, dass er mit einer generativen KI interagiert, die speziell für diesen Zweck entwickelt wurde, um die Transparenz zu erhöhen und das Vertrauen der Öffentlichkeit zu festigen.
Die Einführung von KI-Lösungen erfordert eine technische und rechtliche Validierungsphase vor der groß angelegten Einführung. Beispielsweise können Pilottests, Datenüberprüfungen und unabhängige Audits Fehler verhindern und mehr Vertrauen in das Projekt schaffen.
Es gibt Marktinstrumente und Corporate-Governance-Frameworks, die an die Realität der KI angepasst werden können. In der Folge trägt auch die Übernahme internationaler Standards (wie ISO/IEC) dazu bei, den Reifegrad und die Glaubwürdigkeit von Projekten zu erhöhen.
Die Stärkung der KI-Governance in großen brasilianischen Unternehmen ist eine Reaktion auf die wachsende Abhängigkeit von technologischen Lösungen zur Entscheidungsfindung und zur Aufrechterhaltung von Wettbewerbsvorteilen auf dem Markt. Unter Berücksichtigung rechtlicher und regulatorischer Aspekte, insbesondere des LGPD, des Gesetzentwurfs Nr. 2338/2023 und der OAB-Bundesratsrichtlinien, ist es daher möglich, in jeder Phase von KI-Projekten eine höhere Rechtssicherheit und ethische Robustheit zu gewährleisten.
In diesem Sinne werden die Unterstützung durch spezialisierte Berater, die Bildung interner Gremien und die Erstellung klarer Richtlinien zu wesentlichen Unterscheidungsmerkmalen. Mit Blick auf die Zukunft wird die KI-Regulierung tendenziell noch dynamischer werden und eine kontinuierliche Überwachung und ständige Überprüfung der internen Prozesse erfordern.
Vanzin & Penteado Advogados ist bereit, ein strategischer Partner auf diesem Weg zu sein und das Fachwissen und die Unterstützung anzubieten, die für die erfolgreiche Navigation und Implementierung neuer Technologien in den Geschäftsabläufen großer Unternehmen erforderlich sind.
Veröffentlicht von:
© 2024 Vanzin & Penteado Advogados Associados.