Home » Fachbeiträge » Security Management » Einführung in KI und Technologie

Die KI-Revolution (2): Definition, Grundlagen und Ausblick: Einführung in KI und Technologie

Künstliche Intelligenz (KI) ist mehr als nur ein Schlagwort in der Tech-Welt; sie ist eine bahnbrechende Technologie, die die Art und Weise, wie wir arbeiten, kommunizieren und sogar denken, revolutioniert. Aber was genau verstehen wir unter KI? Im zweiten Teil unserer Serie „Die KI-Revolution“ beschäftigen sich unsere Autoren mit den Grundlagen der künstlichen Intelligenz.

12 Min. Lesezeit
Halle mit großem Bildschirm, das ein KI-Diagramm und ein menschliches Gehirn zeigt zeigt
Bild: DALL·E

Im Kern bezieht sich KI auf die Fähigkeit von Maschinen, Aufgaben auszuführen, die traditionell menschliches Denken erfordern, wie logische Schlussfolgerung, Lernen aus Erfahrung und Interaktion in natürlicher Sprache.

Die Spannbreite der KI lässt sich in zwei Hauptkategorien unterteilen: schwache und starke künstliche  Intelligenz. Schwache KI, auch spezialisierte KI genannt, ist systematisch darauf ausgerichtet, spezifische  Aufgaben zu erledigen – man denke an Sprachassistenten wie Siri oder automatisierte Kundendienst-Chatbots. Starke KI hingegen, die auch als generelle künstliche Intelligenz bekannt ist, bezieht sich auf Systeme, die die Kapazität besitzen, intellektuell mit Menschen zu konkurrieren und eine breite Palette an kognitiven Aufgaben zu bewältigen.

Diese Form der KI bleibt größtenteils theoretisch, aber sie stellt das ultimative Ziel der Forschung dar. John McCarthy, oft als der „Vater der KI“ bezeichnet, definierte den Bereich als „die Wissenschaft und Technik, intelligente Maschinen zu machen“.[1] Diese Definition unterstreicht das fundamentale Ziel der KI: das Erstellen von Maschinen, die nicht nur automatisieren, sondern auch adaptieren und lernen können.

Die Konzepte von KI gehen weit über mechanische Automation hinaus; sie berühren die Grundlagen dessen, was es bedeutet, lernfähig zu sein. Von maschinellem Lernen, das es Computern ermöglicht, aus Daten zu lernen und sich ohne explizite Programmierung zu verbessern, bis hin zu tiefen Lernverfahren, die komplexe Muster in großen Datenmengen erkennen können, ist die KI ein Feld, das ständig unsere Vorstellungskraft herausfordert und unsere Welt formt.[2]

Geschichtlicher Rückblick

Die Geschichte der künstlichen Intelligenz ist eine Reise durch Zeit und Technologie, die von den ersten theoretischen Überlegungen bis hin zu den heutigen Anwendungen führt. Beginnend mit den visionären Ideen von Alan Turing, der in den 1950er-Jahren mit seinem Konzept der „Turing-Maschine“ und dem berühmten Turing-Test die theoretischen Grundlagen für maschinelles Denken und Computerintelligenz legte, hat sich die KI zu einem zentralen Bestandteil der modernen Technologie entwickelt.[3, 4]

Ein markanter Wendepunkt in der KI-Geschichte war das Jahr 1956, als während der Dartmouth Conference der Begriff „Künstliche Intelligenz“ erstmals von John McCarthy geprägt wurde. Diese Konferenz gilt als die Geburtsstunde der KI als eigenständiges Forschungsfeld. In den darauffolgenden Jahren machte die KI durch das Engagement und die Innovationen von Forschern weltweit rasante Fortschritte. Programme wie ELIZA und SHRDLU demonstrierten in den 1960er- und 1970er-Jahren, wie Maschinen menschenähnliche Konversationen führen und logische Probleme lösen können.

Trotz dieser Fortschritte erlebte die KI auch Perioden der Stagnation, die oft als „KI-Winter“ bezeichnet werden. Diese Phasen waren durch einen Mangel an Fortschritten, reduzierte Finanzierung und öffentliches Misstrauen gekennzeichnet. Die Gründe dafür waren vielfältig, darunter übertriebene Erwartungen und technische Beschränkungen.[5]

Die Renaissance der künstlichen Intelligenz begann in den späten 1990er Jahren und wurde durch die Verfügbarkeit großer Datenmengen und erhebliche Verbesserungen in der Rechenleistung vorangetrieben. Diese Entwicklungen ermöglichten bahnbrechende Fortschritte im Bereich des maschinellen Lernens und des tiefen Lernens. Heutige KI-Systeme, zum Beispiel die schachspielende Software Deep Blue oder Googles AlphaGo, haben nicht nur spezifische, sondern komplexe menschliche Fähigkeiten in Spielen übertroffen, was die immense Kapazität der KI unterstreicht.

Von Turings theoretischen Anfängen bis hin zu autonomen Fahrzeugen und personalisierten Medizinlösungen hat die KI eine beeindruckende Entwicklung vollzogen. Die Geschichtsschreibung der künstlichen Intelligenz ist nicht nur eine Chronik technologischer Errungenschaften, sondern auch ein Spiegel der menschlichen Bestrebungen, Intelligenz zu verstehen und zu simulieren.

Historische Zeitleiste von AI
Bild: DALL·E

Grundlegende KI-Technologien

Die Technologien hinter der künstlichen Intelligenz sind so vielfältig wie ihre Anwendungen. An erster Stelle stehen die Algorithmen des maschinellen Lernens. Sie bilden das Herzstück vieler KI-Systeme und ermöglichen es Computern, aus Daten zu lernen, ohne für jede Aufgabe explizit programmiert zu werden. Ein Beispiel hierfür ist das Supervised Learning, bei welchem Modelle anhand von Beispieldaten und bekannten Ausgaben trainiert werden, um Vorhersagen oder Klassifikationen durchzuführen. Die Vielfalt und Komplexität dieser Algorithmen nimmt aufgrund der Fortschritte in der Forschung und der gestiegenen Rechenleistung ständig zu.[6]

Eine weitere zentrale Technologie ist das Deep Learning, eine spezielle Form des maschinellen Lernens, die auf künstlichen neuronalen Netzen basiert. Diese Netze sind inspiriert von der Struktur und Funktionsweise des menschlichen Gehirns und haben die Fähigkeit, komplexe Muster und Beziehungen in großen Datenmengen zu erkennen. Deep Learning hat spektakuläre Erfolge in der Bild- und Spracherkennung erzielt und ist der Motor hinter vielen modernen KI-Anwendungen, von der Gesichtserkennung auf Smartphones bis hin zu autonomen Fahrzeugen.[7]

Natürliche Sprachverarbeitung (Natural Language Processing, NLP) ist ein weiteres wichtiges Feld innerhalb der KI, das es Maschinen ermöglicht, menschliche Sprache in geschriebener oder gesprochener Form zu verstehen und zu generieren. Die Fortschritte in der NLP wurden durch die Entwicklung von Modellen wie BERT und GPT, die auf tiefen Lernverfahren basieren, erheblich beschleunigt. Diese haben die Fähigkeit, die Bedeutung von Wörtern im Kontext zu verstehen und somit reaktionsschnellere und natürlichere Dialogsysteme zu ermöglichen.[8]

Schließlich gibt es noch die Computer-Vision-Technologie, durch die Computer aus Bildern und Videos „sehen“ und „verstehen“ können. Dies umfasst Aufgaben wie Objekterkennung, Bildklassifikation und sogar komplexe Videoanalyse. Durch die Kombination von Deep-Learning-Techniken mit großen Bilddatenbanken haben Forscher Systeme entwickelt, die in manchen Aspekten menschliche Fähigkeiten übertreffen.[9]

Diese Technologien sind die Bausteine, die die heutige KI-Landschaft definieren und gestalten. Sie ermöglichen es Maschinen, nicht nur auf Daten zu reagieren, sondern aus ihnen zu lernen, Schlussfolgerungen zu ziehen und auf intelligente Weise mit der Welt zu interagieren. Die kontinuierliche Entwicklung und Verbesserung dieser Technologien werden zweifellos auch weiterhin tiefgreifende Auswirkungen auf Gesellschaft und Industrie haben.

Anwendungsgebiete der KI

Die künstliche Intelligenz hat in den letzten Jahren nahezu alle Sektoren durchdrungen und revolutioniert. Ihre Anwendung reicht von der Automatisierung einfacher Aufgaben bis hin zur Lösung komplexer Probleme, die menschliche Kreativität und Analysefähigkeit erfordern. In der Industrie spielt KI eine zentrale Rolle bei der Automatisierung von Produktionslinien.

Roboterarme, die mit KI ausgestattet sind, können lernen, präzise Montageaufgaben durchzuführen, wodurch die Effizienz gesteigert und die Produktionskosten gesenkt werden. Ein berühmtes Beispiel ist Teslas Gigafactory, wo solche Maschinen einen erheblichen Teil der Fahrzeugmontage übernehmen.[10]

Im Gesundheitswesen ermöglicht KI neuartige Diagnosemethoden und personalisierte Behandlungspläne. KI-Systeme analysieren medizinische Bilder schneller und oft genauer als menschliche Experten. Tools wie IBMs Watson können riesige Datenmengen aus medizinischen Aufzeichnungen analysieren, um Behandlungsempfehlungen zu geben, die auf ähnlichen Fällen basieren.[11]

Der Finanzsektor nutzt KI für alles von Betrugserkennung bis zur Kundenberatung. KI-Modelle identifizieren Muster in Transaktionsdaten, die auf potenziellen Betrug hinweisen könnten. Zudem können Robo-Advisors Anlageberatung bieten, basierend auf Algorithmen, die Marktbedingungen und individuelle Präferenzen analysieren.[12]

Auch im Einzelhandel verändert KI das Kundenerlebnis. Online-Shops wie Amazon setzen KI ein, um Kaufempfehlungen zu personalisieren, was zu einer besseren Kundenbindung und erhöhten Verkaufszahlen führt. KI-gesteuerte Chatbots bieten Kundenunterstützung in Echtzeit, ohne dass ein menschlicher Mitarbeiter eingreifen muss.[13]

In der Unterhaltungsbranche kreiert KI neue Formen von Inhalten. Algorithmen können Musikstücke komponieren oder realistische Computergrafiken für Filme und Videospiele generieren. Streaming-Dienste wie Netflix verwenden KI, um ihre Inhalte zu personalisieren, was zu einer optimierten Benutzererfahrung führt.[14]

Bereits diese Beispiele zeigen, wie KI die Grenzen des Möglichen in zahlreichen Branchen neu definiert und ein breites Spektrum an  Herausforderungen adressiert. Gefühlt täglich werden neue Anwendungsbereiche präsentiert, da die Technologie rasant fortschreitet und in immer mehr Bereichen unseres Lebens Einzug hält.

Ethik und KI

Die sorgfältige Gestaltung und Implementierung von KI-Systemen ist entscheidend, um sicherzustellen, dass diese Technologien die Menschlichkeit unterstützen und nicht untergraben. Es ist von großer Bedeutung, dass KI-Entwicklungen ethische Prinzipien berücksichtigen, um positive Auswirkungen auf unser Zusammenleben zu gewährleisten und potenzielle Risiken zu minimieren.

Ein zentrales Thema der Informationssicherheit umfasst sowohl den Datenschutz als auch die Datensicherheit. Insbesondere Deep Learning und generative KI sind auf große Datenmengen angewiesen, um ihre Potenziale voll ausschöpfen zu können. Diese Technologien ermöglichen vergleichende Analysen, präzise Prognosen und detaillierte Auswertungen. Dabei ist es von entscheidender Bedeutung, strenge Datenschutzrichtlinien einzuhalten, um die Privatsphäre der Einzelpersonen und die sensiblen Daten von Unternehmen
zu schützen.

Die Datenschutzgrundverordnung (DSGVO) ist ein Beispiel für gesetzliche Regelungen, die darauf abzielen, Bürger vor dem Missbrauch ihrer Daten zu schützen.[15] Ein weiteres wichtiges Thema ist der Bias (Voreingenommenheit) in KI-Systemen. Da KI-Modelle von den Daten lernen, mit denen sie trainiert werden, können sie bestehende Vorurteile widerspiegeln oder sogar verstärken.

Es ist essenziell, Trainingsdatensätze auf Bias zu überprüfen und Modelle regelmäßig zu testen, um Diskriminierung und Verfälschungen zu vermeiden. Forscher wie Timnit Gebru haben darauf hingewiesen, wie wichtig es ist, die Auswirkungen von Bias in KI kritisch zu hinterfragen und zu adressieren.[16]

Die Frage der Transparenz und Nachvollziehbarkeit von KI-Entscheidungen ist ebenfalls von großer Bedeutung. Nutzer sollten verstehen können, wie und warum eine KI zu bestimmten Entscheidungen kommt, insbesondere in kritischen Bereichen wie der Medizin oder dem Rechtswesen. Die Entwicklung von Erklärbarkeitstechniken in KI ist ein aktives Forschungsfeld, das darauf abzielt, die Funktionsweise von KI-Systemen zugänglicher und verständlicher zu machen.[17]

Schließlich ist die Frage der autonomen Systeme und ihrer Kontrolle ein weiteres ethisches Feld. Die Entwicklung autonomer Waffensysteme oder vollständig autonomer Fahrzeuge wirft Fragen nach der moralischen Verantwortung und den potenziellen Gefahren auf. Internationale Richtlinien und Regelwerke sind notwendig, um einen verantwortungsvollen Umgang mit solchen Technologien sicherzustellen.

Herausforderungen

Während die künstliche Intelligenz beeindruckende Fortschritte und Durchbrüche erzielt, stößt sie auch auf eine Reihe von Herausforderungen und Grenzen, die Forscher und Entwickler kontinuierlich adressieren müssen. Eines der größten Probleme ist die Qualität der Daten. KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert werden. Unvollständige oder fehlerhafte Daten können zu ungenauen oder irreführenden Ergebnissen führen. Daher ist es entscheidend, dass die Daten, die zur Ausbildung von KI-Modellen verwendet werden, umfassend, vielfältig und gut gepflegt sind.

Darüber hinaus sind KI-Systeme zunehmend Ziel von Cyberangriffen, die darauf abzielen, ihre Algorithmen zu manipulieren oder sensible Informationen zu stehlen. Die Sicherung dieser Systeme gegen solche Bedrohungen ist entscheidend, um das Vertrauen in KI-basierte Technologien zu wahren.

Die Interpretierbarkeit von KI-Entscheidungen stellt ebenfalls ein großes Problem dar. Viele KI-Modelle, insbesondere solche, die auf Deep Learning basieren, sind „Black Boxes“, deren Entscheidungsfindungsprozesse nicht transparent sind. Das kann besonders problematisch in Bereichen sein, in denen nachvollziehbare Entscheidungen erforderlich sind, wie in der Medizin und im Rechtswesen.

Forscher arbeiten an Ansätzen, um die Funktionsweise von KI-Systemen transparenter und verständlicher zu machen, was zur Entwicklung von Techniken wie LIME und SHAP geführt hat, die erklären, wie bestimmte Eingaben zu Entscheidungen führen.[18]

Mit fortschreitender Technik nähern wir uns der Realisierung des komplett autonomen Einsatzes von KI. Zum Beispiel ist es durch selbstfahrende Fahrzeuge möglich, die Verkehrssicherheit zu erhöhen und die Umweltbelastung zu verringern.

Diese Technologien werfen jedoch auch Fragen bezüglich der Arbeitsplatzsicherheit und der städtischen Infrastruktur auf.[19] Die Debatte um autonome Waffensysteme und selbstfahrende Autos verdeutlicht, dass künstliche Intelligenz das Potenzial hat, die Gesellschaft tiefgreifend zu verändern. Diese Veränderungen erfordern ein sorgfältiges und vorausschauendes Handeln, um sowohl die Chancen zu maximieren als auch die Risiken zu minimieren.[20]

Ein weiteres kritisches Feld ist der Mangel an Fachkräften, der die KI-Entwicklung hemmt. Der schnelle Fortschritt in der KI hat zu einem globalen Wettbewerb um Talente geführt, die sowohl die technischen Fähigkeiten als auch das ethische Verständnis für die Entwicklung und Anwendung von KI-Systemen besitzen.

Ausblick

Die Zukunft der künstlichen Intelligenz ist sowohl spannend als auch ungewiss. Während wir am Rand signifikanter technologischer Durchbrüche stehen, öffnen sich auch Fragen nach den langfristigen Auswirkungen dieser Technologien auf unsere Gesellschaft, Wirtschaft und unsere ethischen Normen.

Die zunehmende Integration der künstlichen Intelligenz in unserem Alltag revolutioniert die täglichen Routinen. Von den intelligenten Assistenten in unseren Smartphones bis hin zu innovativen Anwendungen, die Technologie wird immer raffinierter. Besonders deutlich wird dies in den Bereichen der personalisierten Gesundheitsüberwachungssysteme, die dank KI zu einem festen Bestandteil unseres Lebens werden.

Diese fortschrittliche Integration verbessert nicht nur die Benutzererfahrung, sondern optimiert auch unsere täglichen Abläufe, indem sie maßgeschneiderte Lösungen und Unterstützung bietet. Gleichzeitig wird die Notwendigkeit, ethische Richtlinien für den Einsatz von KI weiterzuentwickeln und umzusetzen, immer drängender, da die Technologie tiefer in sensible Bereiche wie das Gesundheitswesen und den persönlichen Datenschutz eindringt.[20]

Die künstliche Intelligenz wird auch weiterhin ein Motor für Innovationen in zahlreichen Feldern sein, von der Entwicklung neuer Medikamente bis zur Optimierung von Energieverteilungsnetzen. Die Fähigkeit der KI, komplexe Datenmuster zu analysieren und daraus zu lernen, kann Lösungen für einige der dringendsten globalen Herausforderungen bieten.

Literatur

[1] McCarthy, John, What is Artificial Intelligence?, https://wwwformal.stanford.edu/jmc/whatisai.html
[2] Russell, Stuart J., und Peter Norvig. Artificial Intelligence: A Modern Approach, Prentice Hall, Aprill 2020
[3] Hodges, Andrew. Alan Turing: The Enigma, Princeton University Press, Mai 2012
[4] McCorduck, Pamela. Machines Who Think, A.K. Peters/CRC Press, März 2004
[5] Crevier, Daniel. AI: The Tumultuous History of the Search for Artificial Intelligence, Basic Books, Mai 1993
[6] Goodfellow, Ian, Yoshua Bengio und Aaron Courville, Deep Learning, MIT Press, November 2016
[7] LeCun, Yann, Yoshua Bengio und Geoffrey Hinton, Deep Learning, Nature, vol. 521, 2015, Seiten 436–444
[8] Vaswani, Ashish et al., Attention is All You Need, 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA
[9] Krizhevsky, Alex, Ilya Sutskever, und Geoffrey E. Hinton, ImageNet Classification with Deep Convolutional Neural Networks., Advances in Neural Information Processing Systems 25 (NIPS 2012)
[10] Manyika, James, et al., A Future That Works: Automation, Employment, and Productivity, McKinsey Global Institute, Januar 2017
[11] Rajkomar, Alvin, Jeffrey Dean, und Isaac Kohane, Machine Learning in Medicine, The New England Journal of Medicine, 2019
[12] Buch, Victoria, Artificial Intelligence in Finance, Journal of Financial Transformation, 2019
[13] Grewal, Dhruv und Michael Levy, Marketing, McGraw-Hill Education, Januar 2017
[14] Burgess, Matt, How Netflix uses AI to Win the Streaming Wars, Wired, 2020
[15] Europäische Union. General Data Protection Regulation (GDPR), https://gdpr.eu/
[16] Gebru, Timnit, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Proceedings of FAccT, 2021
[17] Goodman, Bryce und Seth Flaxman, European Union regulations on algorithmic decision-making and a ‘right to explanation’, AI Magazine, 2017
[18] Ribeiro, Marco Tulio, Sameer Singh und Carlos Guestrin, Why Should I Trust You?: Explaining the Predictions of Any Classifier,
Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2016
[19] Harari, Yuval Noah, Homo Deus: A Brief History of Tomorrow, Harper, September 2016
[20] Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, März 2024

Der vorliegende Text ist der zweite Teil einer Artikelserie über künstliche Intelligenz. Im dritten Teil in der nächsten Ausgabe der IT-SICHERHEIT widmen wir uns der Prozessoptimierung durch KI.

Folgende Themen sind Teil unserer KI-Serie:

  • Unternehmensführung in Zeiten von KI
  • Einführung in KI und Technologie
  • Prozess-Optimierung durch KI
  • Rechtliche Aspekte beim Einsatz von KI
  • KI-Projekte sicher umsetzen
  • KI im Feld der praktischen Anwendung
Porträt Michael Theumert

Michael Theumert, als Unternehmer vereint er IT-Expertise mit menschlicher Dynamik. Mitgründer des Think & Do Tanks „Human Business Impact”. Schwerpunkt: Sichere und nachhaltige (digitale) Transformation.

Porträt Dr. Dieter Steiner

Dr. Dieter Steiner ist seit über 30 Jahren als Unternehmer und Investor in der IT-Branche mit den Schwerpunkten IT-Security, Datenschutz, digitale Transformation, künstliche Intelligenz und Software-Entwicklung tätig.

Porträt Alexander Jaber

Alexander Jaber ist Gründer und CEO der Compliant
Business Solutions GmbH. Er ist mehr als 20 Jahre aktiv, Experte sowie Trainer für Informationssicherheit und Uni-Dozent für Managementsysteme zur Unternehmenssicherheit.

Andere interessante Fachbeiträge

Kubernetes

Kubernetes sicher betreiben

Kubernetes ist eine Open-Source-Plattform zur Automatisierung der Bereitstellung, Skalierung und Verwaltung von containerisierten Anwendungen. Neben den vielen Vorteilen wie Ressou...

Hacker vor Monitoren

Wie die Angreifersicht beim Schutz des Unternehmens hilft

Unternehmen investieren viel Zeit und Aufwand in den Aufbau einer Sicherheitsarchitektur für ihre industrielle IT. Trotzdem kommt es immer wieder zu erfolgreichen Angriffen. Wie ka...

rotes Ausrufezeichen

Ransomware-Angriffe mit Zero-Trust-Segmentierung eindämmen

Ransomware-Angriffe sind eine große Gefahr. Die gute Nachricht ist: Sie brauchen Zeit. Die Angreifer müssen sich erst in der IT-Umgebung eines Unternehmens ausbreiten, sensible Dat...