Künstliche Intelligenz (KI) – eine Lösung oder Gefahr?

Künstliche Intelligenz - Chance oder Gefahr?Derzeit gibt es einen riesigen Hype um Künstliche Intelligenz. Ist sie denn die Lösung in vielen Bereichen oder nicht? Nein, das kann sie nur zum Teil sein.

Was ist künstliche Intelligenz?

Es ist der Versuch, Computer so zu programmieren, dass sie wie Menschen denken und lernen. Sie sollen intelligent sein, eigenständig analysieren und Probleme lösen können.

Einsatzgebiete von KI

In manchen Bereichen werden sie bereits eingesetzt, so als Sprachassistenten, in Sprachübersetzungen, bei der Erstellung von Bildern sowie Bilderkennung. Bei autonomem Fahren ist sie noch im Versuchsstadium.

Ebenso laufen Versuche in der Pflege mit Pflegerobotern. In der Medizin ist der Einsatz bisher sehr überschaubar. So funktioniert sie in EKG-Geräten bei der Diagnose von kardialer Ischämie oder der molekularen Diagnose zahlreicher Krebsarten. Ebenso beim Ausmessen der Plazenta während der Schwangerschaft. Hier sind sie gar zuverlässiger als die Analyse durch einen Arzt. Die komplexen Berechnungen erledigen sie einfach besser und schneller.

Grenzen beim Verwenden von KI

Wissenschaftler der Humboldt-Universität in Berlin sowie der University of Essex haben aktuell die Möglichkeiten der KI untersucht. Sie Verglichen in Tests die Kreativität von Menschen mit mehreren KI-Programmen. Im Wesentlichen gab es keine Unterschiede. Jedoch waren in etwa 10% der Tests die Menschen kreativer.

Das liegt schlichtweg daran, dass Menschen auch ohne einen „Anstoß“ von außen kreativ sind. Das Gehirn agiert durch die sieben Sinne, das Programme fehlt. So kann der Mensch auch Wege aus scheinbaren Sackgassen finden, Lösungen entwickeln. Im Alltag dürfte KI also mithalten können. Je komplexer eine Fragestellung ist, um so mehr Probleme hat die KI. (Erste Ergebnisse https://www.researchgate.net/… )

Dies muss uns bewusst sein und man darf den Treibern dieses derzeitigen Hypes nicht erliegen.

Gefahren beim Vewenden von KI

Es gibt kaum Programme, die fehlerfrei sind und wenn doch, so sind es recht kleine Programme. Je komplexer sie werden, um so größer ist die Gefahr von Fehlern. Es ist fast unmöglich alle Eventualitäten für den Einsatz zu berücksichtigen. Irgendwann „stolpert“ das Programm bei seinen Analysen darüber und gibt Fehler aus. Dazu kommt, dass durch Fehler in der Programmierung selbst ein Programm gehackt und manipuliert werden kann. Dies weiß man, weshalb es ja auch immer wieder Updates bei Programmen gibt.

Und wie falsch sie liegen, zeigte Google mit seinem Programm „Bard“ bei seiner Vorstellung im Februar. Der Textroboter lieferte auf eine Frage eine falsche Antwort. (Artikel dazu…)

Selbstfahrende Fahrzeuge

Die Aufmerksamkeit des Menschen lässt nach, wenn ein Vorgang viele Male ohne Probleme ablief. Das ist ganz natürlich. Beim autonomen Fahren soll man bereit zum Eingreifen sein. Sind wir das? Ziemlich sicher sind das die wenigsten, den Fuß bereit an Gas- und Bremspedal, die Hände am Lenkrad und die Situation im Blick zu haben. Wir wissen aus Erfahrung, dass wir manchmal reflexartig reagieren müssen. Da geht es dann um Zehntelsekunden. Wir müssten also so aufmerksam sein, als ob wir selbst fahren würden. Aber die Langeweile, wenn nichts passiert, gewinnt Oberhand, wir tun anderes.

Selbstfahrende Autos sind  vernetzt und können daher gehackt werden, was logisch ist und in Versuchen bereits aufgezeigt wurde. Was ist, wenn autonom fahrende Autos  übernommen werden und hunderte oder tausende Unfälle gleichzeitig passieren? Worst Case-Szenarien werden bei der Entwicklung offensichtlich nicht berücksichtigt.

Ob das dies ein Erfolg wird?

Bild- und Videomanipulationen

Bisher gab es immer schon mal manipulierte Bilder, die verbreitet wurden. Mit KI wird das nun viel einfacher. Auch gefälschte Audioaufnahmen sind möglich. Sogar Videos lassen sich inzwischen erstellen, die noch nicht perfekt sind. Aber das ist nur eine Frage der Zeit.

Putin vor Chinas Staatschef Xi knieend, oder Ex-US-Präsident Trumps Verhaftung machten kürzlich die Runde.  Es erscheint witzig, wird jedoch von nicht wenigen Menschen als wahr betrachtet.  Manipulationen durch visuelle Fälschungen wirken schneller und stärker als geschriebene Fake-News und werden mehr eingesetzt werden.

Es gibt inzwischen auch Erkennungssoftware zur Verifizierung, doch wie schnell sich Fake-News über Social Media und Chat-Gruppen verbreiten, ist bekannt. Und wer nimmt sich die Zeit zur Verifizierung, ob ein Foto oder Video echt ist? Nur sehr wenige. Die Verbreitung ist nicht zu stoppen.

Welche Folgen wird das für die Gesellschaft haben, wenn dem nicht Einhalt geboten wird? Leider lässt sich das kaum einschränken, außer, dass die Medien- bzw. Social Media-Konzerne vor Veröffentlichung die Bilder und Videos verifizieren. Dies wäre per Gesetzgeber möglich, doch manche Regierungen haben Interesse, damit zu arbeiten.

Berkeley-Professor Farid warnt davor, dass solche falsche Clips Milliardenschäden an den Börsen anrichten oder zu geopolitischen Verwerfungen führen könnten.

KI in Medizin und Pflege: Menschlichkeit ist gefragt

Programme können nur analysieren, was der Mensch bereits kennt und ihnen damit vorgibt. Ohne die sieben Sinne des Menschen kommen sie an ihre Grenzen und es kann zu fatalen Entscheidungen kommen. Die KI darf also nur eine Hilfe sein.

Ein Pflegeroboter kann assistierend agieren, doch es bedarf eines Menschen an seiner Seite, um auch bei Fehlern einzuschreiten. Pflegebedürftige brauchen zudem die Nähe von Personen, müssen eine Hand mit menschlicher Wärme spüren. Sie müssen eine echte Stimme hören, die individuell auf Menschen eingeht.

In der Medizin wird immer wieder Neues entdeckt, was nur durch die sieben Sinne möglich ist. Neue Faktoren in der Analyse müssen erst einmal programmiert werden.

Der initiierte Hype um die KI in der Medizin führt dazu, dass Menschen glauben, dass sie besser als der Mensch sei und ihn bald im gesamten Bereich ersetzt.

Hier muss es Regeln geben, aber auch jeder Mediziner/jede Medizinerin muss sich immer wieder bewusst machen, dass die Programme nur eine Hilfe sind und auch sie Fehler machen. Dies darf nicht vergessen werden.

Probleme beim Datenschutz

Für Programme bedarf es also einer Menge an Daten. Die elektronische Patientenakte ist deshalb auch gefragt, doch da gibt es Probleme mit dem Datenschutz in Deutschland. In anderen Ländern ist dieser Schutz nicht so hoch. Das beschleunigt dort die Entwicklung der Künstlichen Intelligenz. Seit Corona und durch den Krieg Russlands haben Hackangriffe deutlich zugenommen. Und wir sollten nicht vergessen, dass Krankenhäuser, aber auch deutsche Ministerien bereits gehackt wurden.  Man wird dadurch eventuell erpressbar. Es muss also etwas entwickelt werden, das die Sicherheit der Systeme garantiert.

 

Publikationen:

Allgemein

Bundesministerium für Bildung und Forschung: Digitalisierung und Künstliche Intelligenz

Innovationen sollen künftig schneller bei den Menschen ankommen. Personalisierte Medizin und digitale Innovationen stehen dabei im Fokus. Datenanalysen sollen die Forschung voranbringen und die Versorgungspraxis verbessern.

weiterlesen https://www.gesundheitsforschung-bmbf.de/…

 

Bundesamt für Sicherheit in der Informationstechnik: Künstliche Intelligenz

  • Chance und Bedrohung
  • Schwerpunkt Künstliche Intelligenz im BSI
    • Kompetenzzentrum Künstliche Intelligenz
    • KI in sicherheitskritischen Bereichen wie Automotive und Biometrie
    • Beispiel Kryptografie: KI unterstützt technische Evaluierung
  • Studien des BSI zum Thema KI
  • Definitionen: Künstliche Intelligenz und KI-Systeme

weiterlesen https://www.bsi.bund.de/…

 

Spektrum:
etliche Artikel rund um die Künstliche Intelligenz

weiterlesen https://www.spektrum.de/…

 

Informationstechnik

Google-Textroboter gibt falsche Antwort

09.02.2023 – Im Rennen um das Geschäft mit Künstlicher Intelligenz hat Google sein Programm „Bard“ vorgestellt. Dabei lieferte der Textroboter jedoch falsche Informationen. Die Aktie des Mutterkonzerns brach ein, 100 Milliarden Dollar Börsenwert verpufften.

weiterlesen https://www.tagesschau.de/…

 

Künstliche Intelligenz in China: Chatbot mit „sozialistischen Grundwerten“

11.04.2023 – Chinas Tech-Riese Alibaba will im Geschäft mit Künstlicher Intelligenz mitmischen. Gleichzeitig bereitet Peking staatliche Auflagen vor. Aber auch im Westen müssen sich Regierungen fragen: Wieviel Regeln braucht die Technologie?

weiterlesen https://www.tagesschau.de/…

 

Tagesschau-Faktenfinder:
KI-generierte Desinformation auf dem Vormarsch

Russlands Präsident Putin, der vor Chinas Staatschef Xi auf die Knie geht, oder Ex-US-Präsident Trump, der verhaftet wird: KI-generierte Bilder haben viel Aufmerksamkeit erregt. Aber woran sind sie zu erkennen?

https://www.tagesschau.de/faktenfinder/ki-desinformation-fakes-101.html

 

Bundesamt für Sicherheit in der Informationstechnik
Deepfakes: Gefahren und Gegenmaßnahmen

  • Fälschung von Gesichtern
  • Fälschung von Stimmen
  • Fälschung von Texten
  • Mögliche Bedrohungsszenarien
  • Beispiel-Video
  • Gegenmaßnahmen
  • Herausforderungen der (automatisierten) Gegenmaßnahmen
  • Ausblick

weiterlesen https://www.bsi.bund.de/…

 

Deutsche Welle – Faktencheck: Wie erkenne ich KI-generierte Bilder?

Midjourney, DALL-E, DeepAI – Programme, die mit künstlicher Intelligenz fotorealistische Bilder erschaffen, sorgen für eine Flut an Fakes auf Social Media. Welche Bilder sind echt und welche nicht? Tipps für den Umgang.

weiterlesen https://www.dw.com/de/faktencheck…

 

AFP: Faktencheck:
Hinweise zum Erkennen KI-generierter Bilder

Ob Midjourney, DALL-E, Stable Diffusion oder Craiyon – in den vergangenen Monaten haben die rasanten Fortschritte in Sachen künstlicher Intelligenz (KI) dazu geführt, dass massenhaft künstlich erzeugte Bilder in sozialen Netzwerken geteilt werden. Einige extrem realistisch anmutende KI-Bilder sorgten dabei für Verwirrung im politischen Tagesgeschehen und wurden in einigen Fällen als authentisch dargestellt. Obwohl es bislang kein Werkzeug gibt, um ein künstlich generiertes Bild mit Sicherheit zu erkennen, verraten sich die KI-Erzeugnisse durch Unstimmigkeiten im Bild oder den Kontext tatsächlicher Ereignisse. Das erklärten Expertinnen und Experten gegenüber AFP.

weiterlesen https://faktencheck.afp.com/…

 

Medizin

Heise: Drei Fragen und Antworten:
Wo künstliche Intelligenz der Medizin wirklich hilft

KI soll Medizinern zunehmend unter die Arme greifen. In manchen Bereichen ist sie jedoch schlicht ungeeignet, bei Spezialfällen bleiben die Kosten zu hoch.

weiterlesen https://www.heise.de/…

 


Bild von Pete Linforth auf Pixabay


Um die Entwicklung bei den einzelnen Themen zu sehen,
die Schlagwörter zu früheren Beiträgen:

Permanentlink zu diesem Beitrag: https://gruen4future.de/2023/04/11/kuenstliche-intelligenz-ki-eine-loesung-oder-gefahr/