CDU/CSU und SPD streiten über Umsetzung der EU-Richtlinie

Spätestens seit den spektakulären Enthüllungen von Edward Snowden über die Ausspähpraktiken der NSA weiß jeder, was ein Whistleblower ist.

Whistleblower nehmen in der Regel ein sehr hohes persönliches Risiko und Repressalien in Kauf, um auf erhebliche Missstände und Rechtsverletzungen innerhalb ihres Betätigungsfeldes hinzuweisen und diese öffentlich zu machen.

Dies hat in der Regel eine fristlose Kündigung des jeweiligen Beschäftigungsverhältnisses zur Folge. Diese ist auch durch das Fehlen des für jedes Angestelltenverhältnis erforderlichen gegenseitigen Vertrauens zwischen Arbeitgeber und Arbeitnehmer – was durch die Hinweisgebung an Dritte oder die Öffentlichkeit ja gerade deutlich wird, immer durch die Arbeitsgerichte als zulässig bestätigt worden.

Andererseits gibt es ein erhebliches öffentliches und gesellschaftliches Interesse daran, dass Rechtsverletzungen auch und gerade in Unternehmen öffentlich gemacht, geahndet und verfolgt werden.

Dies geschieht gerade nicht, wenn der Arbeitnehmer immer mit einer Kündigung oder sonstigen Repressalien rechnen muss.

Die EU-Richtlinie zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden vom 23.10.2019

Die sogenannte Whistleblower- Richtlinie sieht vor, dass Personen geschützt werden, die Verstöße gegen das Unionsrecht in bestimmten Bereichen melden – etwa, wenn es um öffentliche Aufträge, Finanzdienstleistungen, Produktsicherheit, Verkehrssicherheit, Umweltschutz, Lebensmittel, öffentliche Gesundheit, Verbraucher- und Datenschutz geht.

Diese Richtlinie müsste eigentlich von der Bundesregierung im Rahmen ihrer Verpflichtungen aus den EU-Verträgen bis zum 17. Dezember 2021 umgesetzt werden.

Bereits 2014 hatte darüber hinaus das Ministerkomitee des Europarates Grundsätze für nationale Regelungen zum Hinweisgeberschutz aufgestellt. Auch das Übereinkommen der Vereinten Nationen gegen Korruption, dass in Deutschland 2014 ratifiziert wurde, fordert die Mitgliedstaaten auf entsprechende Maßnahmen zu ergreifen.

Der internationale Druck ist entsprechend hoch. Whistleblower effektiv zu schützen, sollte zum Standard gehören!

Wo liegt das Problem für die Uneinigkeit zwischen CDU/CSU und SPD?

Zwischen diesen Parteien ist vor allen Dingen umstritten, ob Whistleblower nur geschützt werden, wenn es um Verstöße gegen EU-Recht geht oder auch bei Verstößen gegen deutsches Recht.

Die SPD möchte sowohl Verstöße gegen europäisches als auch gegen deutsches Recht offenlegen. „Denn sonst wäre geschützt, wer einen Verstoß gegen europäische Datenschutzvorschriften meldet, aber nicht geschützt wer auf Schmiergeldzahlungen, Steuerhinterziehung oder Verstöße gegen deutsche Umwelt- oder Arbeitsschutzbestimmungen hinweist.“

Die CDU/CSU möchte aber den Hinweisschutz nur für Verstöße gegen EU-Recht gewähren, denn ansonsten würden die Vorgaben der EU-Richtlinie überschießend umgesetzt werden.

Gerade in der aktuellen Pandemie- Situation kämpfen viele Unternehmen um ihre Existenz und dürften durch weitere Bürokratie und Regulierung keine zusätzlichen Steine in den Weg gelegt bekommen.

Ob es noch in dieser Legislaturperiode zu einer gesetzlichen Regelung kommen wird, ist fraglich, obwohl es dann logischerweise zu einem Vertragsverletzungsverfahren der EU gegen die Bundesrepublik Deutschland kommen würde.

Whistleblower könnten sich auch direkt auf die EU-Richtlinie berufen

Sollte die Umsetzungsfrist ablaufen, ohne dass ein entsprechendes Gesetz vorliegt, könnten sich Beschäftigte aber auch direkt auf die EU-Richtlinie berufen.

Wenn es etwa um eine Kündigung nach einem Hinweis geht, könnten sich Beschäftigte auf die EU-Richtlinie als Schutzgesetz berufen – und die Kündigung wäre unter Umständen rechtswidrig.

Zuletzt sorgte etwa der Fall einer Arbeitnehmerin für Aufsehen, die ein Video aus der Kantine des Schlachtbetriebs Tönnies zeigt, bei dem Menschen dicht an dicht beim Mittagessen saßen – mitten in der Coronapandemie.

Die Frau wehrte sich gegen ihre fristlose Kündigung vor dem Amtsgericht Bielefeld, wo es schließlich zu einem Vergleich kam. Künftig könnten die Gerichte womöglich eher zugunsten der Hinweisgeber entscheiden – zumal sie das deutsche Recht so auslegen müssen, dass EU-Recht möglichst effektiv umgesetzt wird.

In einer aktuellen Untersuchung haben die Datenschutzexperten von pCloud die sogenannten Privacy Labels im App Store untersucht, um die Apps zu identifizieren, welche die meisten Nutzerdaten verarbeiten. Gegenstand der Untersuchung war nicht nur die Apps herauszufinden die Informationen für eigene interne Zwecke nutzten, sondern auch diejenigen die ihre Informationen und Daten an Drittanbieter weitergeben. pCloud ist ein in der Schweiz ansässiger Anbieter für Cloud- Speicherlösungen mit weltweit über 10,5 Millionen Usern.

Hierbei ist nachvollziehbar, dass Daten erhoben werden, um die eigene App zu verbessern. Hierzu gehört beispielsweise die Analyse von Fehlern oder Abstürzen, um diese in Updates zu beheben. Diese Nutzung der Daten ist häufig im Sinne der Nutzer von iPhone und iPad. Kritischer hingegen wird es, wenn die Unternehmen die gesammelten Daten der Anwender weiterverkaufen, um sich damit zu finanzieren.

52 % der Apps für iPhone und iPad teilen Informationen mit Drittanbietern.

Die Untersuchungsergebnisse hat pCloud in einer Übersicht zusammengefasst. Hier können Sie sich die Übersicht ansehen:  https://blog.pcloud.com/invasive-apps/

Bei dieser Übersicht geht es unter anderem um Apps, welche die gesammelten Daten mit Drittanbietern teilen. Zu den Informationen gehören beispielsweise Einkäufe, Standort, Kontaktdetails, Such- und Browsing-Historie, finanzielle Details oder Gesundheit- und Fitnessdaten- es geht also durchaus um sehr sensible Daten.

Die TOP 3 der Datenkraken nach pCloud:

Platz 1 geht an ➞ Instagram

  • Instagram sammelt 79 % der persönlichen Daten und dabei geht ie App nur in wenigen Kategorien sparsam mit den Informationen um.

Platz 2 geht an ➞ Facebook

  • Mit 57 % teilt Facebook wesentlich mehr als die Hälfte aller Daten mit Drittanbietern.

Platz 3 geht an ➞ LinkedIn

  • LinkedIn teilt 50 % der Daten mit Drittanbietern wozu ein wenig überraschend auch der User Content gehört, was bei LinkedIn auch eigenen Beiträge der Kontoinhaber sind.

Ebenfalls bemerkenswert ist, dass die Plätze 6 und 7 an YouTube gehen. Auf dem Platz 6 findet man YouTube und auf Platz 7 YouTube Music. Es ist interessant, dass die Hörerdaten von YouTube ebenfalls an Drittanbieter weitergegeben werden. Insgesamt teilt YouTube 43 % seiner Kundendaten.

Auf Platz 10 findet sich eBay, wobei hier beeindruckt, dass auch eBay die ganzen Daten über ersteigerte und gekaufte Artikel mit Drittanbietern teilt. Insgesamt teilt eBay 36 % seiner Kundendaten mit Drittanbietern.

Nutzer dieser Apps müssen sich also nicht darüber wundern, wenn sie zum Beispiel Werbung für potenzielle Einkäufe in anderen Apps wiedersehen und repetitiv auf sie einfließt. Hierbei sollte man immer berücksichtigen, dass die Apps auch untereinander miteinander kommunizieren.

Welche Apps geben keine Daten an Dritte weiter

Am anderen Ende der Skala der iPhone- und iPad-Apps finde ich aber auch einige positive Überraschungen! Hierbei handelt es sich um Apps, die keine oder nur sehr wenige Details mit Drittanbietern austauschen und somit keine Daten weitergeben, die von Dritten zu Marketingzwecken benutzt werden könnten.

Überraschenderweise sind auch namhafte Unternehmen darunter, wie z.B.

Netflix

Skype

und Zoom.

Ebenso in diese Kategorie gehören:

Microsoft Teams, Google Classroom, Telegramm und das relativ neue Clubhouse.

Die Weitergabe von Kundendaten an Dritte scheint somit nicht zwingende Voraussetzung zu sein, um ein profitables Geschäftsmodell im Internet zu begründen!

Apples neue Privacy Data Labels

Doch nicht nur Drittanbietern nutzen die Daten der Nutzer, auch Apples eigene Apps haben Zugriff auf persönliche Informationen.

Durch die Implementierung sogenannter eigener Privacy Data Labels verfolgt Apple hier aber eine Transparenzstrategie, welche die Weitergabe und Nutzung der Daten an Dritte für den Nutzer transparent macht.

Hier gehts zu den Apple Richtlinien: https://www.apple.com/de/privacy/labels/

Diese Transparenzrichtlinien beabsichtigt Apple in wenigen Wochen mit Auslieferung von IOS 14.5 für alle Apps im App Store verbindlich einzuführen. Es sollte nicht verwundern, dass dies zurzeit auf erbitterten Widerstand stößt- vor allem durch Facebook.

Fazit

Ich denke, dass diese Strategie von Apple einem effektiveren Datenschutz – im Kern der Sicherung der Transparenz der Nutzung personenbezogener Daten – durchaus dienlich ist.

Dadurch soll dem Nutzer die Einsicht und Entscheidung vereinfacht werden, wie seine Daten genutzt und verteilt werden und ob er die entsprechende App dann nutzen möchte – oder eben nicht.

Es ist zumindest ein weiterer kleiner Schritt auf dem Weg zur Sicherung der Transparenz der Verarbeitung personenbezogener Daten gegen das wirtschaftliche Interesse auf möglichst unbegrenzte Nutzung und Verwertung personenbezogener Daten durch die großen internationalen Internetkonzerne.

Was bedeutet das eigentlich und was steckt dahinter?

Die von Facebook mit gegründete Diem Association, früher Libra, verfolgt die Mission ein Internet des Geldes zu entwickeln. Eine globale Währung und finanzielle Infrastruktur für Milliarden von Menschen. Auch die europäische Zentralbank und die Bank of China befassen sich mit der Einführung einer digitalen Währung als Ergänzung zum Bargeld.

Diese Entwicklung wirft eine Vielzahl von rechtlichen Fragestellungen auf. Was ist Geld? Wann ist Geld eine Währung? Ist digitales Geld als Alternativwährung zum Euro-Bargeld mit Unionsrecht vereinbar?

Was ist Geld?

In den Hochkulturen Asiens bereitete sich bereits lange vor Christus Münzgeld aus Gold, Silber oder Kupfer als Zahlungsmittel aus, bevor sich mit der Einführung von Papiergeld eine Loslösung des Geldwertes vom Substanzwert vollzog. Mit der weiteren Verbreitung von Papiergeld entstand in Deutschland ein Bankwesen, in dem Bargeld als Buchgeld zunehmend entmaterialisiert wurde. Daraus entwickelte sich zunehmend auch ein bargeldloses Zahlungswesen. Aktuelle Entwicklungen zielen nun auf eine weitere zunehmende Digitalisierung und Internationalisierung des Geldwesens ab. Hierbei verspricht die Block Chain Technologie die Möglichkeit Zahlungen schneller und zu geringen Gebühren zu ermöglichen und stellt somit eine neue Innovationsstufe des Geldwesens dar.

Ökonomisch verstanden ist Geld ein Vermögenswert, der als Tauschmittel, als Recheneinheit und zur Wertaufbewahrung dient, wobei Geld immer ein Zahlungsmittel, aber Zahlungsmittel nicht immer notwendigerweise Geld sein müssen.

Wann ist Geld eine Währung?

Unter einer Währung wird abstrakt das Geldwesen eines oder mehrerer Staaten zusammengefasst, und wird konkret ein staatlich anerkanntes und gesetzlich bestimmtes Zahlungsmittel verstanden. Vor diesem Hintergrund wird deutlich, dass Bitkom zum Beispiel weder Geld noch Währung sind, da es bereits keinen zentralen Emittenten gibt. Erst wenn die europäische Zentralbank ein Blockchain-basiertes Zentralbankgeld – etwa einen E-Euro – einführen würde, hätte man im Rechtssinne Geld und könnte eine zusätzliche Gestaltungsform einer Währung darstellen.

Ist digitales Geld als Alternativwährung zum Euro-Bargeld mit Unionsrecht vereinbar?

Die Zukunft des Zahlungswesens

Nach dieser Definition wäre die Entwicklung privater Block Chain-basierter Zahlungsmittel – wie den von Facebook geplanten Diem – streng genommen keine Währung im rechtlichen Sinne. Sie besitzt aber das Potenzial, tiefgreifende Veränderungen im Zahlungsverkehr anzustoßen. Diese Blockchain-basierten Zahlungsmittel sind im Einzelnen sehr unterschiedlich. Die jeweiligen Voraussetzungen in Bezug auf verschiedene Reichweiten und Nutzungszwecke unterschieden sich erheblich. Zum Beispiel verlangt Facebook zur Nutzung von Diem einen Facebook- Account, was die Nutzung erheblich einschränkt.

Die im September 2020 veröffentlichte Verordnung des europäischen Parlaments und des Rates “on Markets in Cryptoassets, and amending Directive (EU) 2019/1937“ beschreibt eine digitale Finanzstrategie, Legislativvorschläge zu Krypto-Assets und digitaler Widerstandsfähigkeit für einen wettbewerbsfähigen EU-Finanzsektor. Dies dient dem Zweck, dass sowohl gegenüber den Aufsichtsbehörden als auch den Marktentwicklungen die Deutungshoheit geregelt ist, wie diese neuen Zahlungsmittel einzuordnen und zu bewerten sind. Dadurch kann den Verbrauchern Zugang zu innovativen Finanzprodukten geboten und gleichzeitig Verbraucherschutz und finanzielle Stabilität gewährleistet werden. Die Verordnung richtet sich an Emittenten von Kryptowährungen, Utility Token, Stablecoins sowie E-Geld Token. Verwiesen wird dabei auf Anbieter wie PayPal oder die European Payments Initiative von 16 europäischen Großbanken, die den bargeldlosen, digitalen Zahlungsverkehr weiterentwickeln wollen.

Fazit:

Der Zukunft des Geldwesens steht eine äußerst dynamische Entwicklung bevor, die ein Wendepunkt in der Geldgeschichte einleiten könnte. Für die Politik und Öffentlichkeit wäre, meiner Meinung nach, sicherlich ratsam diesen neuen Entwicklungen unvoreingenommen zu begegnen und Innovationen hier nicht vorschnell durch nationale Egoismen zu blockieren. Die Zukunft des Geldes hat gerade erst begonnen.

Ein wichtiger Schritt zur Stärkung des Vertrauens in politische Entscheidungen

Seit Ende 2020 besteht die Vereinbarung, ein verpflichtendes Transparenzregister für das europäische Parlament, den Rat der EU und die europäische Kommission einzuführen. Diese Vereinbarung geht zurück auf einen Vorschlag der Kommission den diese bereits 2016 unterbreitet hatte.

Am 15. Dezember 2020 haben nun das Parlament, der Rat und die Kommission eine endgültige Einigung über ein Interinstitutionelles Abkommen (Interinstitutional Agreement IIA) erzielt. Die offizielle Unterzeichnung und das Inkrafttreten sind für das Frühjahr 2021 geplant.

Erweiterung und neue Beteiligung des EU-Rates

Das neue Transparentregister wird von einem Sekretariat verwaltet, an dem die drei Institutionen Parlament, Rat und Kommission gleichberechtigt teilnehmen werden. Um registriert werden zu können, müssen die Antragsteller einen Verhaltenskodex einhalten. Hierbei war man sich auch einig darüber, strengere Bestimmungen zur Überwachung und Untersuchungen einzuführen, die gewährleisten, dass auch wirksame Maßnahmen ergriffen werden, wenn ein Lobbyist den Verhaltenskodex nicht einhält. Auch die Streichung von registrierten Lobbyisten aus dem Register wird als Sanktionsmöglichkeit festgeschrieben.

Eintragungspflicht für Aktivitäten

Das Transparenzregister sieht vor, dass sich Interessenvertreter registrieren müssen, wenn sie folgende Aktivitäten vornehmen:

  • Treffen mit wichtigen Entscheidungsträgern, Organisationen und
  • Teilnahme an Anhörungen und Briefings sowie
  • Zugang zu den Institutionen möchten.

Dazu gehören Aktivitäten, die darauf abzielen, Entscheidungsprozesse oder Formulierungen bzw. die Umsetzung politischer Strategien oder Rechtsvorschriften auf EU-Ebene zu beeinflussen. Ferner müssen Interessenvertreter erklären, welche Interessen und Ziele sie verfolgen und welche Kunden sie vertreten, sowie über Ressourcen informieren, die für die Interessenvertretung eingesetzt werden, vor allem über die Finanzierungsquellen.

Verbände und Netze von Behörden, die in der Interessenvertretung aktiv sind, können sich freiwillig registrieren, wenn sie dies wünschen.

Einige Aktivitäten werden ohne Registrierung möglich bleiben: (zum Beispiel)

  • spontane Treffen,
  • Rechtsberatung und
  • Aktivitäten von Sozialpartnern, politischen Parteien, zwischenstaatlichen Relationen oder Behörden der Mitgliedstaaten.

Bestimmungen für einzelne Organe

Die europäische Kommission: Mitglieder der EU-Kommission dürfen Interessenvertreter nur treffen, die im Transparenzregister aufgeführt sind. Information zu solchen Treffen werden auf der Europa-Webseite veröffentlicht.

Das europäische Parlament: Hier ist die Registrierung Voraussetzung für den Zugang zu seinen Räumlichkeiten, für Vorträge bei öffentlicher Anhörung von parlamentarischen Ausschüssen oder die Teilnahme an der Arbeit von Intergruppen oder anderen inoffiziellen Gruppierungsaktivitäten, die im Parlament organisiert werden.

Der EU-Rat: Auch hier ist ein Eintrag in das Transparentregister erforderlich um Zugang zu seinen Räumlichkeiten, die Teilnahme an thematischen Informationen und Treffen von Interessenvertretern mit dem Generalsekretär und den Generaldirektor des Generalssekretariats des Rates zu erhalten.

FAZIT:

Vielleicht wäre diese Initiative auf EU-Ebene hier auch mal ein Anlass, dass die Regierungsparteien in der Bundesrepublik Deutschland über die Einführung eines entsprechenden Transparenzregisters in Berlin nachdenken.

Zurzeit können Lobbyisten von über 500 Lobbyorganisationen frei ohne irgendeine Registrierung oder Transparenz im Bundestag ein und ausgehen! Absprachen und Regeln wer wann wie mit wem warum Zugang erhält hält die Bundestagsverwaltung nach wie vor unter Verschluss: ein – wie ich finde – nachhaltig untragbarer Zustand! Den Bürgern der Bundesrepublik Deutschland steht mehr Transparenz ihrer Regierung zu.

Ausufernde Überwachung und Leistungskontrollen von Arbeitnehmern aufgrund des Einsatzes von Produkten US-amerikanischer IT-Konzerne führen auch in Deutschland immer mehr und mehr zu rechtswidrigen Einschränkungen der Arbeitnehmerrechte und Verletzung geltender Datenschutzvorgaben.

Während Microsoft frühzeitig auf Bedenken gegen bedenkliche Funktionen bei Office 365 reagiert, beanstanden Behörden den Einsatz einer bestimmten Software bei Amazon. Microsoft hatte sein Softwarepaket „Microsoft 365“ in einem Update um eine zusätzliche Analyse-Funktion namens „Workspace Analytics“ erweitert. Damit ließ sich ein sogenannter Productivity-Score, also ein Produktivitätswert für einzelne Mitarbeiter errechnen. In diesen Wert fließen etwa Angaben dazu ein, wie viele E-Mails oder Messenger Nachrichten die einzelnen Mitarbeiter täglich verschicken oder wie oft die Dateien in der Microsoft Cloud speichern oder diese Daten mit externen Personen teilen. Auch technische Details, wie etwa zur Nutzung von langsameren konventionellen Festplatten anstelle der schnelleren SSD. Auch Daten zur Zeitdauer der Aktivierung von Webcams während Videokonferenzen werden hier erfasst.

Nach Intervention von Datenschützern ruderte Microsoft allerdings zurück und besserte das Update entsprechend nach. Den Productivity-Score wird es danach nur noch in zusammengefasster Form auf Unternehmensebene geben, sodass keine direkten Rückschlüsse auf einzelne Arbeitnehmer mehr möglich sein werden.

Anders allerdings die Reaktion von Amazon. Hier hat der niedersächsische Datenschutzbeauftragte den Einsatz einer umstrittenen Überwachung-bzw. Leistungskontrollsoftware Amazon ausdrücklich untersagt.

Mithilfe der Software wird jeder Scanvorgang, den die Mitarbeiter beim Einlagern oder Entnehmen von Produkten durchführen, automatisch auch auf die Geräte der Vorarbeiter übertragen und dort angezeigt. Diese können darüber also jeden einzelnen Arbeitsschritt in Echtzeit überwachen und erkennen beispielsweise direkt, wenn ein Mitarbeiter einmal seinen gewohnten Arbeitsrhythmus kurz unterbricht. Diese umfassenden Daten werden auch dazu genutzt, um detaillierte Profile der Mitarbeiter anzulegen. Amazon sieht in dem Einsatz der Leistungsüberwachungsoftware überhaupt kein Problem und wird den Bescheid der Behörde nicht akzeptieren.

Diese Rechtsauffassung entspricht meiner Meinung nach nicht den grundsätzlichen gesetzlichen Vorlagen der DSGVO. Eine beim Einsatz dieser Software nach Art. 35 DSGVO erforderliche Datenschutzfolgenabschätzung würde dieses sicherlich bestätigen. Danach sind nämlich die Notwendigkeit und Verhältnismäßigkeit des Einsatzes dieser Software in Bezug auf den Zweck, die Risiken für die Rechte und Freiheiten der betroffenen Personen zu bewerten. Diese Software kommt somit einer Totalüberwachung gleich, die sicherlich dem Grundgedanken des Art. 1 Grundgesetzes, und damit einem wesentlichen Aspekt des Kerns des Grundrechts auf informationelle Selbstbestimmung, widerspricht.

im Hinblick auf Sicherheit und Haftung der EU-Kommission an das Europäische Parlament, den Rat und den europäischen Wirtschafts- und Sozialausschuss vom 19.2.2020

Dieser Bericht wurde zusammen mit dem Weißbuch zur künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen – am 19.2.2020 von der EU-Kommission veröffentlicht. In diesem Bericht wird der einschlägige, gegenwärtige Rechtsrahmen in der EU analysiert. Dabei wird der Frage nachgegangen, wo es Unsicherheiten hinsichtlich der Anwendung dieses Rechtsrahmens wegen der spezifischen Risiken gibt, die von KI-Systemen und anderen Technologien ausgehen. Der Bericht kommt zu dem Schluss, dass die geltenden Produktsicherheitsvorschriften bereits ein erweitertes Konzept des Schutzes von allen Arten von Risiken, die von dem Produkt je nach seiner Verwendung ausgehen, unterstützen. Um größere Rechtssicherheit zu schaffen, könnten jedoch Bestimmungen aufgenommen werden, die sich ausdrücklich auf neuere Risiken im Zusammenhang mit den neuen digitalen Technologien beziehen. Zusammenfassend könnte man sagen, dass der Bericht einen Ausblick über die zu erwartenden gesetzlichen Regelungen auf EU-Ebene für die nächsten Jahre im Bereich KI-Systeme und dort insbesondere hinsichtlich der damit verbundenen Sicherheits- und Haftungsfragen gibt. Der Bericht unterscheidet hier zwischen zwei wesentlichen Regelungsbereichen, den Produktsicherheitsvorschriften und den Fragen nach den bestehenden Haftungsrahmen für die digitalen Technologien.

  1. Produktsicherheitsvorschriften
    Der Bericht kommt zwar zu dem Schluss das geltende Produktsicherheitsvorschriften bereits ein erweitertes Konzept des Schutzes vor allen Arten von Risiken, die von einem Produkt je nach seiner Verwendung ausgehen, unterstützen. Um eine größere Rechtssicherheit zu schaffen, könnten jedoch Bestimmungen aufgenommen werden, die sich ausdrücklich auf neue Risiken im Zusammenhang mit den neuen digitalen Technologien beziehen.
    1. Das autonome Verhalten bestimmter KI-Systeme während ihres Lebenszyklus kann zu erheblichen sicherheitsrelevanten Änderungen der Produkte führen, die eine neue Risikobewertung erforderlich machen können. Darüber hinaus kann es nötig sein, als Schutzmaßnahme die Kontrolle durch die Menschen ab der Phase der Auslegung während des gesamten Lebenszyklus der KI-Produkte und-Systeme vorzusehen.
    2. Explizite Verpflichtungen für Hersteller könnten gegebenenfalls auch in Bezug auf psychische Sicherheitsrisiken für Anwender in Erwägung gezogen werden (zum Beispiel bei Zusammenarbeit mit humanoiden Robotern).
    3. Die Produktsicherheitsvorschriften der Union könnten sowohl spezifische Anforderung vorsehen, um die Sicherheitsrisiken auszuräumen, die von fehlerhaften Daten in der Phase der Auslegung ausgehen als auch Mechanismen, mit denen sichergestellt wird, dass die Qualität der Daten während der gesamten Nutzung der KI-Produkte und-Systeme aufrechterhalten wird.
    4. Die Frage der Opazität- also der Möglichkeit durch selbstgesteuertes Lernen und selbstgesteuerter Leistungsverbesserung einiger KI-Produkte – von auf Algorithmen basierenden Systemen könnte durch die Festlegung von Transparenzanforderungen angegangen werden.
    5. Im Falle eigenständiger Software, die als solche in Verkehr gebracht wird oder nach dem Inverkehrbringen in ein Produkt heruntergeladen wird, müssen die bestehenden Vorschriften möglicherweise angepasst und präzisiert werden, wenn die Software sicherheitsrelevante Auswirkungen hat.
    6. Angesichts der zunehmenden Komplexität der Lieferketten bei neuen Technologien könnten auch Bestimmungen, die eine Zusammenarbeit zwischen den Wirtschaftsteilnehmern in der Lieferkette und den Nutzern verbindlich vorschreiben, zu Rechtssicherheit beitragen.

  2. Haftungsvorschriften
    Die Merkmale neuer digitaler Technologien wie KI können bestimmte Aspekte der bestehenden Haftungsrahmen infrage stellen und deren Wirksamkeit verringern. Aufgrund mancher dieser Eigenschaften könnte es schwierig werden, den Schaden zu einer Person zurückzuverfolgen, was nach den meisten nationalen Vorschriften erforderlich wäre, um verschuldensunabhängige Ansprüche geltend zu machen. Dies könnte die Kosten für die Geschädigten erheblich erhöhen und dazu führen, dass Haftungsansprüche gegenüber anderen Akteuren als den Herstellern schwer geltend zu machen oder zu belegen sind.
    1. Personen, die infolge der Nutzung von KI-System ein Schaden erlitten haben müssen, das gleiche Schutzniveau genießen wie Personen, die durch andere Technologien geschädigt wurden. Gleichzeitig muss genug Raum für die Weiterentwicklung technologischer Innovation bleiben.
    2. Alle Optionen, die zur Erreichung dieses Ziels ins Auge gefasst werden – einschließlich möglicher Änderung der Produkthaftungsrichtlinie und einer etwaigen weiteren gezielten Harmonisierung der nationalen Haftungsvorschriften – sollten sorgfältig geprüft werden. So bittet die Kommission beispielsweise um Stellungnahme zu der Frage, ob und in welchem Umfang es erforderlich sein könnte, die Folgen der Komplexität abzumildern, in dem für Schäden, die durch den Betrieb von KI-Anwendungen verursacht werden, die in den nationalen Handlungsvorschriften vorgesehenen Beweislastregeln geändert werden.
    3. Angesichts der vorstehenden Ausführungen zum Haftungsrahmen kommt die Kommission zu dem Schluss, dass – zusätzlich zu den möglichen Anpassung dieser bestehenden Rechtsvorschriften – möglicherweise neue, speziell auf KI ausgerichtete Rechtsvorschriften erforderlich sind, um den Rechtsrahmen der EU an die derzeitigen und erwarteten technologischen und kommerziellen Entwicklung anzupassen.

    Als mögliche zusätzliche Regulierungspunkte werden in dem Weißbuch folgende Bereiche genannt:
    • Eine klare rechtliche Definition von KI
      Hier sollte man einen risikobasierten Ansatz verfolgen, d. h., dass es KI-Anwendungen mit hohem bzw. nur geringem Risiko geben sollte. Hierbei sollte man die regulatorischen Bestrebungen auf diejenigen Anwendungen konzentrieren mit hohem Risiko, um den Aufwand für KMU nicht unverhältnismäßig hoch zu verursachen.
      Kriterien für die Risikoklasse sollte sein die Frage ob die KI Anwendung in einem Sektor eingesetzt wird, in dem aufgrund der Art der typischen Tätigkeiten mit erheblichen Risiken zu rechnen ist. Zweites Kriterium ist, ob die KI-Anwendung in dem betreffenden Sektor so eingesetzt wird das mit erheblichen Risiken zu rechnen ist.
    • Schlüsselmerkmale
      Die Anforderungen an KI-Anwendungen mit hohem Risiko kann sich dabei auf folgende Schlüsselmerkmale beziehen: Trainingsdaten, Aufbewahrung von Daten und Aufzeichnungen, Vorzulegende Information, Robustheit und Genauigkeit, menschliche Aufsicht, besondere Anforderungen an bestimmte KI-Anwendungen, zum Beispiel Anwendungen für die biometrische Fernidentifikation.
    • Adressaten
      Im Lebenszyklus eines KI-Systems sind viele Akteure beteiligt. Hierzu gehört der Entwickler, der Betreiber und möglicherweise weitere Akteure wie Hersteller, Händler Importeur, Dienstleister, professioneller oder privater Nutzer. Nach Auffassung der Kommission sollten in einem künftigen Rechtsrahmen die einzelnen Verpflichtungen jeweils dem Akteur/den Akteuren obliegen, die am besten in der Lage sind, potenzielle Risiken zu bewältigen. So wären möglicherweise die Entwickler von KI am besten in der Lage, den Risiken zu begegnen, die sich aus der Entwicklungsphase ergeben, während ihre Fähigkeit die Risiken in der Nutzungsphase zu kontrollieren, eher eingeschränkt wäre. Nach Ansicht der Kommission ist es von entscheidender Bedeutung, dass die Auflagen für alle einschlägigen Wirtschaftsteilnehmern gelten, die KI-gestützte Produkte oder Dienstleistungen in der EU anbieten, unabhängig davon, ob sie in der EU niedergelassen sind oder nicht.
    • Einhaltung und Durchsetzung
      angesichts des hohen Risikos, dass bestimmte KI-Anwendungen insgesamt darstellen, ist die Kommission zum gegenwärtigen Zeitpunkt der Auffassung, dass eine objektive vorab vorzunehmende Konformitätsbewertung erforderlich wäre, um zu überprüfen und sicherzustellen, dass bestimmte der oben genannten obligatorischen Auflagen für Anwendungen mit hohem Risiko erfüllt sind. Eine vorab vorzunehmende Konformitätsbewertung könnte Verfahren für die Prüfung, Inspektion oder Zertifizierung umfassen. Dies könnte eine Überprüfung der Algorithmen und der in der Entwicklungsphase verwendeten Datensätze beinhalten.

      a) Governance
      eine europäische Governance-Struktur für KI in Form eines Rahmens für die Zusammenarbeit der zuständigen nationalen Behörden ist notwendig, um eine Aufsplitterung der Zuständigkeiten zu vermeiden, die Kapazitäten in den Mitgliedstaaten auszubauen und sicherzustellen, dass Europa sich schrittweise mit der für die Prüfung und Zertifizierung von KI-gestützten Produkten und Dienstleistungen erforderlichen Kapazitäten ausstattet.
  1. Fazit
    Wenn auch die von der EU-Kommission im Weißbuch und im Bericht über die Auswirkung Auswirkungen künstlicher Intelligenz gemachten Überlegungen über Anpassung der rechtlichen national unterschiedlichen vorhandenen Regelungen hinsichtlich künstlicher Intelligenz noch in einem sehr unkonkreten Stadium und sich noch mitten in der politischen Diskussion befinden, so kann man doch folgendes festhalten:
    1. Mit einer angepassten bzw. ergänzenden gesetzlichen Regelung auf EU-Ebene hinsichtlich der Fragen der Produktsicherheit (also Markt-Zugangsvoraussetzungen) als auch hinsichtlich der Neuordnung der haftungsrechtlichen Fragen im Zusammenhang mit KI-Systemen kann mit einiger Sicherheit im Laufe der nächsten Jahre ausgegangen werden.
    2. Gerade KI-Anbieter sollten sich hier darauf einstellen, dass der Algorithmus transparenter, überprüfbarer und schließlich auch gewissen Zertifizierungsansprüchen genügen muss. Daneben ist sicherlich eine erweiterte Haftung und damit Verantwortlichkeit des KI-Anbieters die über das bisher bekannte Maß einer Produkthaftung hinausgeht, zum Beispiel auch im Hinblick einer Verantwortung für Lieferketten und komplexe Produkte, zu rechnen. Im Ergebnis wird dies nur mit geänderten, transparenteren Entwicklungsprozessen und einer erweiterten Verantwortlichkeit, sprich einem erheblich höheren Aufwand für den entsprechenden Versicherungsschutz, verbunden sein.

Am 9. Dezember 2020 beabsichtigt die EU-Kommission die Bekanntgabe einer Reihe neuer geplanter wettbewerbsrechtlicher und kartellrechtlicher Regelungen zur besseren Kontrolle von Technologie-Konzernen, insbesondere den großen Internetplattformen.

Auch der EU-Rechnungshof fordert eindringlich in einem am 19.11.2020 veröffentlichen Bericht die Verbesserung entsprechender EU-Regelungen. Insbesondere kritisiert der Bericht, dass es zwei kartellrechtliche Verfahren gegen Internetplattformen nach gegenwärtigem Recht schon gibt, die Durchsetzung hier aber sehr zu wünschen übriglässt.

Zwar hat die EU-Kommission ein Kartellrechtverfahren gegen Google eröffnet, dieses ist aber jetzt bereits seit mehr als 3 Jahren ohne eine Entscheidung beim europäischen Gerichtshof anhängig.

Bereits vor paar Wochen wurden die Inhalte der geplanten neuen EU-Regelungen – dem sogenannten Digital Services Act- geleakt, sodass ich im Folgenden gern eine kurze Auflistung der beabsichtigten Regelungen geben möchte.

1. Exklusive Datennutzung

Großen Onlineplattformen könnte es unter dem Digital Services Act der EU verboten werden, gesammelte Userdaten zu verwenden, wenn diese nicht auch kleineren Plattform zur Verfügung gestellt werden. Hierbei wird insbesondere auf die Aktivitäten der sogenannten „Gatekeeper“ Plattformen wie Google, Amazon und Facebook eingegangen. Diese Großkonzerne haben ein unverhältnismäßig hohes Maß an wirtschaftlicher Macht und Kontrolle über die Online-Welt und können somit „am Eingangstor“ mitentscheiden, wer auf den Markt eintreten darf.

Nach der neuen Regulierung dürfen Gatekeeper die Daten,

  • welche auf der Plattform selbst
  • oder auf anderen Diensten der Geldgeber erzeugt und gesammelt werden
    nur dann für ihre eigenen kommerziellen Zwecke verwenden, wenn diese Daten auch anderen gewerblichen Nutzern zugänglich gemacht werden.

2. Rankings

Ferner soll es Online-Suchmaschinen verboten werden können ihre eigenen Dienste bevorzugt und an exponierter Stelle anzuzeigen. Diese Regelung stellt eine erhebliche Verschärfung der bisherigen Verordnung der EU aus dem Juli 2019 dar. In dieser waren Suchmaschinen lediglich verpflichtet transparent und deutlich zu machen, wenn sie ihre eigenen Produkte und Dienstleistungen bevorzugt behandeln.

3. Wahlfreiheit und Vorinstallation

Ebenso soll es den E-Commerce Giganten in Zukunft verboten werden die Möglichkeit der geschäftlichen Nutzer einzuschränken, den Verbrauchern dieselben Waren und Dienstleistungen unter anderen Bedingungen über andere Online-Vermittlungsdienste anzubieten. Ebenso soll es verboten sein, dass große Unternehmen  ausschließlich ihre eigenen Apps auf Hardwaresystemen vorinstallieren. Ebenso muss es möglich sein vom Hersteller bereits vorinstallierte Anwendungen durch den Verbraucher deinstallieren zu können.

4. Einführung einer sogenannten „Grauen Liste“

Ferner beabsichtigt die EU-Kommission die Einführung einer sogenannten „Grauen Liste“ von Aktivitäten, die die Exekutive als unfair erachtet und die daher zukünftig möglicherweise einer verstärkten Aufsicht durch eine zuständige Behörde benötigen. Demnach wäre es den Plattformgiganten nicht erlaubt, Drittanbieter am Zugang zu wesentlichen Informationen über Kunden zu hindern, und sie würden angewiesen keine persönlichen Daten zu sammeln die über das hinausgehen, was für die Erbringung ihrer Dienstleistung notwendig ist.


Im Ergebnis bleibt abzuwarten in welcher konkreten Ausgestaltung die EU-Kommission diese Regelungen jetzt im Dezember 2020 vorstellen wird. Es ist aber sicherlich damit zu rechnen, dass durch intensive Lobbyarbeit der großen Internetkonzerne, wie auch bereits mehrfach in der Vergangenheit geschehen, hier bis zur endgültigen Verabschiedung wir noch einiges an Veränderung und öffentliche Diskussion sehen werden. Es bleibt  -wie so oft im Leben- also weiterhin spannend.

Was steckt dahinter?

In einem Beschluss hat der BGH die Verhängung eines Bußgeldes durch das Bundeskartellamt gegen Facebook bestätigt. Obwohl der Beschluss des BGH nun schon über zwei Monate zurückliegt, möchte ich das Thema hier dennoch erneut aufgreifen und auf zwei Probleme, die in dieser Entscheidung deutlich werden, aufmerksam machen.

1. Problem

Zuerst bleibt festzuhalten, dass diese Entscheidung im Augenblick keinerlei Rechtswirkungen für den Alltag und für das Verhalten in und mit Facebook bewirken wird.

Dieses ist einfach dem Umstand geschuldet, dass es sich bei dem Beschluss um einen Beschluss in einem Eilverfahren handelt. In diesem Eilverfahren entschied das Gericht über eine im Jahre 2019 durch das Bundeskartellamt gegenüber Facebook erlassene Bußgeldentscheidung.

Hier ist auch schon der erste Kritikpunkt: Die zeitliche Dauer des Eilverfahrens!

Vor Erlass des Bußgeldbescheides hatte das Kartellamt bereits 3 Jahre ermittelt. Dieses sogenannte Eilverfahren hat somit bis zu seiner Rechtskraft mehr als 4 Jahre gedauert!

Dies erscheint äußerst problematisch gerade in Streitfällen mit Bezug zur Digitalwirtschaft, weil sich die wirtschaftliche Macht auf digitalen Märkten schnell verfestigt.

Facebook wiederum hat nun die Möglichkeit im Hauptsacheverfahren die Entscheidung noch einmal intensiv überprüfen zu lassen. Möglicherweise wird in dem Verfahren der BGH auch noch einer Stellungnahme des europäischen Gerichtshofs einholen, was wiederum ein jahrelanges Hauptsacheverfahren bedeuten würde.

Hier ist zweifellos der Gesetzgeber aufgerufen für einen effektiven Rechtsschutz Sorge zu tragen!

2. Problem:

Der zweite wichtige Aspekt dieser Entscheidung ist, dass der BGH nicht die inhaltliche Begründung der marktbeherrschenden Stellung von Facebook -wie im ursprünglichen Bescheid des Bundeskartellamts – übernommen hat. Der BGH hat gerade nicht auf einen Verstoß gegen die DSGVO als Kartellrechtsverstoß als Grund für seine Entscheidung genannt, sondern die AGB’ s von Facebook als kartellrechtlich bedenklich eingestuft.

Damit vermeidet der BGH eine inhaltliche Entscheidung hinsichtlich der Frage, ob ein Verstoß gegen die DSGVO grundsätzlich einen Tatbestand einer Kartellrechtsverletzung erfüllen kann. Früher oder später wird der BGH sich einer Stellungnahme zu dieser Frage nicht verschließen können. Denn dabei ist der Kern des Problems, dass die DSGVO das Grundrecht auf informationelle Selbstbestimmung nicht gegen einen zu übergriffigen Staat, sondern gegen die wirtschaftlichen Interessen der international sehr gut aufgestellten Internetplattformen schützen will! Deren Geschäftsmodell besteht nämlich genau darin, durch die intelligente Ausnutzung personenbezogener Daten ihre Umsätze zu generieren.

Zusammenfassend lässt sich also sagen:

Da wir uns erst zu Beginn der intensiven höchstrichterlichen Klärung von Rechtsfragen zur Anwendung und Reichweite der DSGVO befinden, wird sich auch der BGH hier früher oder später klar positionieren müssen! Im Kern geht es dabei um die Frage, ob das dem öffentlichen Verfassungsrecht zugehörige Feld des Grundrechtsschutzes auch im privatwirtschaftlichen, zivilrechtlichen Bereich unmittelbare Anwendung auf die Rechtsbeziehungen zu den Internetplattformen Anwendung findet.

Mit seinem aktuellen Urteil erklärt der EuGH das Privacy-Shield -Abkommen für unwirksam. Im Wesentlichen begründet er dies mit den US-Sicherheitsgesetzen, die den Behörden weitreichende Zugriffsmöglichkeiten ohne nennenswerte Einschränkungen auf Daten von EU-Bürgern einräumen, ohne dass eine gerichtliche Kontrolle möglich ist.

Gleichzeitig entschied der EuGH auch über die Standard-Datenschutzklauseln, mit denen ein Datenimporteur im Drittland gegenüber einem europäischen Unternehmen vertraglich zusichert, dorthin übermittelte Daten nach EU-Datenschutzstandards zu verarbeiten.

Diese sollen grundsätzlich weiterhin gültig sein, sofern es dem Datenempfänger nach den Gesetzen des Ziellandes möglich ist, diese Datenschutzklauseln auch einzuhalten. Da in den USA die Firmen gesetzlich verpflichtet sind, staatlichen Behörden gegenüber weitreichend ihre Daten zur Verfügung zu stellen, seien die europäischen Datenschutzbehörden verpflichtet, die auf diese Datenschutzklauseln gestützte Übermittlung dann in solchen Ländern auszusetzen oder zu verbieten.

Dieses Urteil hat erhebliche praktische Auswirkungen auf den internationalen Datenaustausch!

Datentransfers in die USA sind ab sofort datenschutzwidrig, wenn sie ausschließlich auf Grundlage einer Privacy Shield- Zertifizierung erfolgen. Erfasst sind nicht nur Übermittlungen an Auftragsverarbeiter, also Cloud-Dienstanbieter, sondern auch solche innerhalb eines Konzerns oder an Geschäftspartner, bei denen zumindest ein Teil der Datenverarbeitung in den USA erbracht wird.

Sowohl der Einsatz von Software-Tools, bei denen zumindest ein Teil der Datenverarbeitung in den USA stattfindet, als auch die konzerninternen Datenflüsse an US-Konzernunternehmen müssen überprüft werden.

Der EuGH deutet an, dass dies in den USA aufgrund der unkontrollierten Überwachungsbefugnisse der Sicherheitsbehörden kein angemessenes Schutzniveau besteht.

Zulässig bleibt allein eine Übermittlung, die zur Erfüllung eines Vertrages oder zur Durchführung vorvertraglicher Maßnahmen mit dem Betroffenen erforderlich ist. Die Kommunikation mit amerikanischen Kunden oder Hotelbuchungen in den USA sind weiter zulässig.

Ebenso nicht unmittelbar betroffen ist die Nutzung von US-Dienstleistern, wenn die Leistungserbringung vollständig in europäischen Rechenzentren erfolgt. Dies ist zum Beispiel bei großen Hosting- und Cloud-Anbietern (z.B. Amazon Cloud) aus den USA mittlerweile der Fall, da sie über Serverstandorte in Europa verfügen.

In der Praxis bleibt somit zunächst nur der Weg über den Einsatz von Standarddatenschutzklauseln, welche für eine gewisse Rechtssicherheit Sorge tragen. Daneben bleibt aber sicherlich die große Unsicherheit hinsichtlich der zusätzlich nach wie vor erforderlichen Prüfung des Datenschutzniveaus im Land des Datenempfängers.

Es bleibt also abzuwarten, wie sich weitere Datenschutzbehörden in Deutschland und der EU zur Frage des rechtskonformen Einsatzes von Standardvertragsklauseln bei Datentransfers in die USA positionieren. Denkbar wäre ein erneuter Versuch einer Nachfolgeregelung des Privacy Shield zu etablieren.

Dieses Abkommen müsste aber deutliche Beschränkungen der amerikanischen Sicherheitsgesetze und Ausweitung der Rechtsschutzmöglichkeiten für EU-Bürger umfassen. Dies scheint wenig aussichtsreich. Die USA werden ihre Sicherheitsgesetze nicht wegen Datenschutzbedenken der EU ändern!

Im Ergebnis bleibt es in der Praxis einem zunächst nichts anderes übrig als das weitere Vorgehen der EU-Kommission und Empfehlungen der Datenschutzaufsichtsbehörden abzuwarten. Entsprechende Ankündigungen wurden sowohl von der EU-Kommission, sowie vom europäischen Datenschutzausschuss (EDSA) bereits getätigt. Also, leider wie so oft abwarten…

Twitter war dazu übergegangen Fake- News und falsche Behauptungen in seinen veröffentlichten Tweets zu kennzeichnen. Damit wollte Twitter klar machen, dass Twitter den Wahrheitsgehalt des Inhalts anzweifelt.

Dies hat man auch beim erfolgreichen Twitterer Donald J. Trump mit mehr als 85,5 Millionen Followern getan. Er sah darin direkt eine Zensur seiner Meinungsäußerung und drohte die bisherige Haftungsfreiheit für rechtwidrige Inhalte auf den Plattformen abzuschaffen.

Dieses Vorgehen hätte fatale Auswirkungen und wäre eine dramatische Verschlechterung der Rechtsposition der Internetplattformen. Denn sollten diese tatsächlich für rechtswidrige Inhalte Ihrer Nutzer selbst haften, dann wäre durch die Änderung der Geschäftsmodelle und Einführung von Uploadfiltern eine deutliche Zensur des Content zu befürchten.

Ob Trump dieses verfassungsrechtlich per Präsidialdekret überhaupt ausrichten kann, soll hier nicht weiter eine Rolle spielen.

Äußerst interessant, fand ich, ist auch der veröffentlichte Standpunkt von Mark Zuckerberg von Facebook hierzu. Dieser wird durch folgende Äußerung deutlich: “Ich glaube nicht, dass Facebook und andere Plattformen Schiedsrichter der Wahrheit sein sollten!

Daraufhin erwiderte Jack Dorsey, CEO von Twitter: “Ich will nicht über die Wahrheit urteilen, sondern die Leute in die Lage versetzen aufgrund von Tatsachen sich eine freie Meinung bilden zu können!“

Und mittendrin Donald J. Trump, welcher der festen Überzeugung ist, dass alles was er von sich gibt der Wahrheit und den Tatsachen entspricht.

Ich denke hier ist es lohnend, sich kurz Gedanken zu machen über die Begriffe: Tatsache, Meinung und Wahrheit.

Im Verfassungsrecht der westlichen Demokratien ist die Meinungsäußerungs-und Pressefreiheit traditionell als sehr hohes Rechtsgut fest verankert.

Presserechtlich wird zwischen Meinung und Tatsache in der Form unterschieden, dass Tatsachen prinzipiell einer objektiven, wissenschaftlichen Beweisführung zugänglich sind. Hingegen eine Meinungsäußerung sich gerade dadurch kennzeichnet, dass diese nicht überprüfbar, sondern das Ergebnis eines individuellen, gedanklichen, subjektiven Prozesses ist, der sich einer Überprüfung entzieht.

Erfreulicherweise wird diese weite Definition der Meinungsäußerungsfreiheit konsequent vom Bundesverfassungsgericht vertreten und geschützt. Eine inhaltliche Bewertung der Meinung verbietet sich, ganz im Sinne von Voltaire, Vordenker der französischen Revolution und den bürgerlichen Freiheiten.

Meinungsäußerungsfreiheit im öffentlichen Raum ist eben genau das Recht, das zu äußern und zu sagen was die anderen gerade nicht hören wollen!

Rechtlich problematisch ist jetzt die Definition des Begriffs Wahrheit. Hier verlassen wir den justiziablen Verfassungsrechtsbereich und betreten den philosophisch, religiös geprägten Weltanschauungsbereich.

Die Wahrheit ist bestenfalls einzuordnen als:

in ihrer überzeugendsten Form überprüfbare Tatsache.

Wenn wir sie aber so betrachten, dann ist sie eben eine überprüfbare Tatsache und keine Wahrheit mehr.

Das bedeutet also: wenn wir von Wahrheit sprechen beinhaltet dieses immer auch ein Element der subjektiven Überzeugung. Denn subjektive Überzeugung, egal ob nun weltanschaulich oder religiös, ist ein Kennzeichen der Definition von Meinung im verfassungsrechtlichen Sinn.

Eigenartigerweise haben wir somit bei dem Begriff: Wahrheit es mit einem Begriff zu tun der sowohl Elemente der Tatsache und des Begriffs Meinung mit seiner Subjektivität enthält.

Dieses erinnert mich in beeindruckender Weise an ein Zitat von Friedrich Nietzsche, welcher die Wahrheit als etwas anderes bezeichnete- als etwas immer auch Bipolares. „Schmerz ist auch immer eine Lust, Fluch auch immer ein Segen, Nacht auch eine Sonne und ein Weiser auch ein Narr[…]“ (Quelle: Also sprach Zarathustra S. 402)

Nach diesen Erkenntnissen bleibt somit im Ergebnis überraschenderweise festzuhalten, dass man hier durchaus Donald J. Trump recht geben muss, wenn er sagt, dass alles, was er von sich gibt der Wahrheit entspricht.2

Es handelt sich dabei jedoch nur um seine eigene, individuelle, höchstpersönliche Wahrheit.

Sofern er jedoch Tatsachen behauptet, kann er sich nicht der Notwendigkeit verweigern, diese auch beweisen zu müssen.