Künstliche Intelligenz




Inhaltsverzeichnis

  1. Was ist Informatik?
  2. Was ist Information?
  3. Was ist Digitalisierung
  4. Bedeutende Persönlichkeiten der Informatik
  5. Was ist eine Datenbank?
  6. Was ist das Internet?
  7. Was sind Soziale Medien?
  8. Was ist Robotik?
  9. Was ist Kryptologie?
  10. Was ist Kybernetik?
  11. Was ist Virtuelle Realität (VR)?
  12. Computerspiele
  13. Spielekonsolen
  14. Aktuelle Entwicklungen in der Informationstechnologie ua. Künstliche Intelligenz, Quantencomputer)
  15. Was ist ein Easter Egg?
  16. Computer Witze

In der Informatik geht es genauso wenig um Computer, wie in der Astronomie um Teleskope." (Edsger Wybe Dijkstra)

 

"Computer werden kleiner und kleiner, bald verschwinden sie völlig."

(Ephraim Kishon)

 

"Wenn die digitale Transformation richtig gemacht wird, ist es so, als würde sich eine Raupe in einen Schmetterling verwandeln, aber wenn sie falsch gemacht wird, bleibt nur eine wirklich schnelle Raupe."

(George Westermann)

 

"Wir leben in einer Welt, die in Daten ertrinkt. Wir haben die Wahl, ob wir sie weiterhin ignorieren und als großen Rausch abtun oder ob wir sie nutzen wollen."

(Jörn Lyseggen)

 

"Alles, was digitalisiert werden kann, wird digitalisiert."

(Carly Fiorina)

 

"KI ist allgegenwärtig geworden. Sie weist uns beim Autofahren den Weg, beantwortet unsere Fragen, bietet Musikempfehlungen und unterstützt eine wachsende Zahl von Geschäftsprozessen am Arbeitsplatz. Tatsächlich hält KI in so vielen Aspekten unseres privaten und beruflichen Lebens Einzug, dass mein Unternehmen begonnen hat, sie als alltägliche KI zu bezeichnen. Ich behaupte, dass sie bald so allgegenwärtig - und notwendig - sein wird wie Elektrizität."

(Florian Douetteau, Geschäftsführer  und Mitbegründer von Dataiku)

 

Das 21. Jahrhundert ist das erste Jahrhundert, in dem Menschen lebenslanges Lernen in die Praxis umsetzen müssen. Dies bedeutet, Lernreisen entsprechend dem Lebensstil und der Neurologie des Einzelnen zu gestalten. KI ermöglicht uns dies, indem sie das Lernen personalisiert und dadurch möglicherweise unser Bildungsmodell zum Wohle der Allgemeinheit verändert." 

(Andy Haldane, Geschäftsführer von RSA)

Was ist Informatik?

Eine einheitliche Definition von Informatik ist gar nicht so einfach.

Die Gesellschaft für Informatik (GI) sagt, Informatik sei "die Faszination, sich die Welt der Information und des symbolisierten Wissens zu erschließen und dienstbar zu machen".

Eine andere Definition ist: "Die Wissenschaft Informatik befasst sich mit der systematischen Darstellung, Erkennung, Speicherung, Übertragung und Verarbeitung von Information die vor allem auf digitalen Rechnern stattfindet. Sie ist zugleich Grundlagen- und Formalwissenschaft als auch Ingenieurdisziplin".

Der Begriff "Information" steht demnach im Mittelpunkt. Und mit dieser Information wird etwas "gemacht". Was genau damit gemacht wird, kann je nach Aufgabe und Teilgebiet der Informatik sehr unterschiedlich sein, hat aber meist mit einem sehr kreativen Prozess zu tun. Nehmen wir eine Textnachricht in den sozialen Medien als Beispiel. Diese wird zunächst von der Nutzerin über ein Gerät (bspw. Smartphone oder echte Tastatur) eingetippt. Was getippt wird, muss adäquat dargestellt werden. Nach dem Absenden muss der Text an den Anbieter übertragen werden. Dort wird die Nachricht verarbeitet, gespeichert und bei den Adressaten der Nachricht wiederum geeignet dargestellt.

Das Wort Informatik ist eine Kombination aus den Wörtern "Informa tion" und "Mathe matik" bzw. "Auto matik".

Die Informatik nutzt die Leistungsfähigkeit und Möglichkeiten der digitalen Technologie, um Daten und Informationen in Wissen umzuwandeln, das Menschen täglich nutzen. Dieser starke Fokus auf die menschliche Nutzung von Computern hilft Menschen, auf die bestmögliche und effizienteste Weise mit Technologie zu interagieren.

Mathematik und logisches Denken sind die Grundpfeiler der Informatik. Aber auch mit der Physik ist Informatik eng verbunden.

Sie hat sich gerade mal vor 60 Jahren als eigenständige Wissenschaft etabliert.

Im Zentrum der Informatik steht heute der Computer, der vielleicht vielseitigste technische Erfindung aller Zeiten. Als Werkzeug der Informatik verrichtet der Computer - anders als andere Maschinen - keine physikalische oder mechanische Arbeit. Der Computer nimmt damit eine Sonderstellung unter den technologischen Innovationen ein. Computer verarbeiten ausschließlich Daten. Die Informatik versucht, diese Datenverarbeitung als perfektes logisches System zu realisieren. Sie entwickelt dazu theoretische Konzepte, praktische Lösungen, technische Umsetzungen und konkrete Anwendungen.

Die symbolische Darstellung von Informationen in einem Computer eignet sich für jegliche Art der Datenverarbeitung: Zahlen, Zeichen, Sprache, Musik und Bilder lassen sich mit ihm digital verarbeiten.

Diese universale Anwendung der Computertechnik wird auch Informationstechnologie (IT) genannt. Hier verschmelzen Informatik, Telekommunikation und Unterhaltungselektronik zu einem Kernbereich der Informationsgesellschaft. Die Informatik unterteilt sich in die Teilgebiete der Theoretischen Informatik, der Praktischen Informatik, der Technischen Informatik und der Angewandten Informatik. Wichtige Querschnittsbereiche der Informatik sind zudem die Künstliche Intelligenz sowie Informatik und Gesellschaft.

Die angewandte Informatik untersucht, inwieweit Abläufe durch den Einsatz von Computern automatisiert werden können. Verfahren der Simulation und Computergraphik, der Bild- und Sprachverarbeitung sowie der Modellierung schaffen konkrete Anwendungsmöglichkeiten für die Automatisierung und Unterstützung beispielsweise in der Produktion und den Ingenieuranwendungen (Ingenieurinformatik), in betriebswirtschaftlicher und öffentlicher Verwaltung (Wirtschaftsinformatik), in Medizintechnik und Pharmaindustrie (Medizin- und Bioinformatik). Auch aus dem Bildungsbereich ist Informatik nicht mehr wegzudenken.

 

Was ist Information?

Information ist eine generelle Eigenschaft der Natur.

Sie kann aufgenommen, gespeichert, verarbeitet und weitergegeben werden.

Information ist permanent an einen stofflichen Träger gebunden. Information kann ein System strukturieren, ihr Verhalten steuern oder weitere Informationen über ein System (z.B. ein Computerprogramm) steuern.

Information kann beliebig vervielfältigt werden. Information wird mit Zeichen oder Signalen übertragen. 

Wenn ein Empfänger eine Nachricht erhält, sprechen wir auch von Information.

 

Was ist Digitalisierung?

Unter Digitalisierung versteht man den Prozess der Umwandlung analoger Informationen oder Ressourcen in ein digitales Format.

Dabei geht es um die Umwandlung physischer Vermögenswerte in digitale Daten. Digitale Transformation ist die umfassende und strategische Integration digitaler Technologien in allen Aspekten einer Organisation.

Der Begriff der Digitalisierung hat mehrere Bedeutungen: Er kann die digitale Umwandlung und Darstellung bzw. Durchführung von Information und Kommunikation oder die digitale Modifikation von Instrumenten, Geräten und Fahrzeugen ebenso meinen wie die digitale Revolution, die auch als dritte Revolution bekannt ist, bzw. die digitale Wende. Wir sprechen von "Informationszeitalter" und "Computerisierung".

 

Bedeutende Persönlichkeiten der Informatik

  • Gottfried Wilhelm Leibniz (erste Beschreibung einer Rechenmaschine mit binärer Zahlencodierung)
  • George Boole (Boolesche Algebra: auf diese basieren die Grundlagen der Informatik)
  • John von Neumann (Einer der Väter der Informatik, Erfinder einer auch heute noch benutzten Computer-Architektur)
  • Alan Turing (Turing-Maschine, Turing-Test und Turing-Bombe oder Colossus)
  • Max Neumann (wesentliche Beiträge zur Entzifferung des durch Enigma verschlüsselten geheimen deutschen Nachrichtenverkehrs)
  • Edgar Frank Codd (Vorarbeiten für relationale Datenbanken)
  • Grace Hopper (Verständliche Sprache von Computerprogrammen)
  • Ole-Johan Dahl (Entwicklung von Simula, die erste objektorientierte Programmiersprache der Welt)
  • Tony Hoare (Entwicklung des Quicksort-Algorithmus sowie des Hoare-Kalküls durch den sich die Korrektheit von Algorithmen beweisen lässt, Entwicklung der  Prozessalgebra die unter anderem die Entwicklung der Programmiersprachen Ada und Go beeinflusst hat)
  • Douglas Carl Engelbart (Entscheidende Pionier und Vordenker für die Entwicklung des PCs)
  • Edsger Wybe Dijkstra (Wegbereiter der strukturierten Programmierung)
  • Donald Knuth (Fundamentale Beiträge zu Algorithmen, Datenstrukturen und Übersetzerbau, Satzsystem TeX, Sprache Metafont, Author von "The Art of Computer Programming" -TAOCP)
  • Joseph Weizenbaum (Vorläufer des Internets)
  • Marc Andreessen (Entwickler von Mosaic, einem der ersten international weit verbreiteten Webbrowsers)
  • Kenneth Lane Thomson (Erfinder der Programmiersprache B auf dem C basiert, von Unix und der ersten Shell)
  • Bjarne Stroustrup (Entwickler der Programmiersprache C++)
  • Larry Wall (Entwickler der Programmiersprache Perl)
  • James Gosling (Erfinder der Programmiersprache Java)
  • Guido Van Rossum (Erfinder der Programmiersprache Python)
  • Charles F. Goldfarb (Erfinder der Beschreibungssprache GML die er weiter zu SGML entwickelte und von der die Auszeichnungssprache XML eine Untermenge ist)
  • Alan Kay (Wichtige Beiträge zur Objektorientierten Programmierung)
  • Bill Joy (Entwicklung der Berkeley-Variante von Unix, des TCP/IP-Netzwerkprotokolls, Erfindung des vi-Texteditor, der C-shell-Kommandozeilen-Interpreters, Weiterentwicklung der SPARC-Mikroprozessor Architektur, des Solaris-Betriebssystems und der Java-Programmiersprache)
  • Karen Spärck Jones (Ihre Forschung wird heute in Web Suchmaschinen angewendet, Spracherkennung)
  • Seymour Roger Cray (Pionier und erster erfolgreicher Architekt für Supercomputer)
  • Marvin Lee Minsky (Pionier der künstlichen Intelligenz)

  

Was ist eine Datenbank?

Eine Datenbank ist eine strukturierte Sammlung von Daten, die in einem Computersystem gespeichert sind. Datenbanken werden typischerweise benutzt, um größere Datenbestände zu verwalten und die Abfrage von Informationen zu erleichtern.

Es gibt 4 unterschiedliche Datenbanktypen: relationale, hierarchische, objektorientierte und netzwerkartige Datenbanken.

Bekannte Datenbanksysteme sind die Oracle Datenbank, Microsoft Access, Microsoft SQL Server, dBase, PostgreSQL, Informix und MySQL (Open Source).

Die am häufigsten genutzte Datenbank-Abfragesprache ist SQL (Structured Query Language) und bezeichnet eine Sprache für die Kommunikation mit relationalen Datenbanken. Mit SQL-Befehlen lassen sich Daten relativ einfach einfügen, verändern oder löschen.

Blockchain ist vom Prinzip her nichts anderes als eine große Datenbank, die mit einem Ursprungsblock startet, an den immer neue Datenblöcke chronologisch angehängt werden, nachdem sie überprüft und bestätigt wurden. Sie bildet damit also eine Historie von Datensätzen (z.B. Finanztransaktionen) ab. Das Besondere an der Datenbank der Blockchain ist, dass es sich um eine verteilte Datenbank handelt. Das bedeutet: Jeder, der an dem Blockchain-System teilnimmt, speichert auf seinem Rechner eine vollständige Kopie der Datenhistorie. Dieses Vorgehen erhöht die Manipulationssicherheit deutlich, und auch die Reihenfolge der Blöcke wird zusätzlich durch eine Prüfsumme gesichert. Diese verhindert, dass die Reihenfolge der Blöcke nachträglich geändert werden kann. Die bekannteste Anwendung der Blockchain-Technologie sind Kryptowährungen wie Bitcoin und Ethereum. Bei Kryptowährungen handelt es sich um eine digitale Währungsform, die gehandelt und getauscht wird, wie eine normale Papierwährung. Im Gegensatz zu Papierwährungen werden aber Kryptowährungen weder von finanziellen Institutionen noch von der Regierung kontrolliert.

 

Was ist das Internet?

Das Internet ist ein weltweites, öffentliches Verbund von Computernetzwerken die heterogen, dezentral und hierarchisch organisiert ist. Das Internet ist ein einheitliches Kommunikationssystem zwischen verschiedenen Computer und Computernetzen. 

Das Internet ermöglicht es, zu jeder Zeit und fast an jedem beliebigen Ort Informationen abzurufen.

In den 1950er Jahren schlugen mehrere Visionäre, darunter TedNelson und Douglas Engelbart, unabhängig voneinander vor, das Konzept der Querverweise zu computerisieren und so den anklickbaren Link zu schaffenden wir im Web verwenden. Nelson nennt es einen "Hyperlink" und den computerisierten Text "Hypertext".

Die Erfindung und die Entwicklung des Internets und des WWW am meisten beigetragen haben Tim Berners-Lee und Leonard Kleinrock.

Vorläufer des Internets war das Arpanet und die Kommerzialisierung des Internets begann ab 1989 (es wurde von CERN - der Europäischen Organisation für Kernforschung - 1993 der Öffentlichkeit kostenlos zugänglich gemacht). 

Vor 30 Jahren, am 6. August 1991, wurde in der Schweiz die erste Website der Welt in der damals noch kleinen Online-Community öffentlich vorgestellt. Am Europäischen Kernforschungszentrum CERN in Genf hatte der britische Physiker Tim Berners-Lee bereits 1989 das World Wide Web (WWW) entwickelt und 1990 den ersten Web-Server online gestellt.

Sein Ziel war es damals, einen automatisierten Informationsaustausch zwischen Wissenschaftlern an Universitäten und Instituten in aller Welt herzustellen - heute sind über 4 Milliarden Menschen global miteinander vernetzt.

In jede einzelne Minute sind folgende Internet-Aktivitäten zu verzeichnen:

  • 80 Millionen betrachtete Bilder
  • 6 Millionen Google-Suchen
  • 2,7 Millionen € Umsatz bei Online-Verkäufen
  • 2,5 Millionen Stunden an Musik
  • 24 neue Wikipedia-Artikel

Die Zahl der Websites ist in den vergangenen 30 Jahren regelrecht explodiert. Heute gibt es über 2 Milliarden Websites - im langfristigen Schnitt werden jedes Jahr etwa 60 Millionen Seiten zusätzlich online gestellt.

Die Datenbank der Webseiten von Google ist 100 Millionen GigaByte groß.

Aktuell verarbeitet Google im Schnitt 98.400 Suchanfragen in einer einzigen Sekunde - das sind mehr als 8,5 Milliarden Suchanfragen pro Tag weltweit. Schauen wir 10 Jahre zurück, zeigt sich das gigantische Wachstum: 2012 waren es "lediglich" 3,5 Milliarden tägliche Suchen. Google zeigt maximal 1000 Ergebnisse, deswegen erscheinen 91% der weltweiten Webseiten nicht in der Google Ranking.

Die Nutzungsstatistiken von Websuchmaschinen zeigen, dass Google 2012 täglich 3,5 Milliarden Suchanfragen verzeichnet hat, Bing hatte fast 900 Millionen Suchanfragen pro Tag, im Vergleich zu DuckDuckGo mit 30 Millionen Suchanfragen.

Bei allgemeinen Begriffen, überschreitet die Trefferanzahl von Google Search die 100 Millionen Grenze (diese Info wird von Google nicht mehr angezeigt), die maximale Anzahl der tatsächlich aufgelisteten Treffer ist aber nie größer als 1000.

Die meist gesuchten Begriffe in Google Search 2022 in Deutschland waren:

  1. google.com (934,70 Mio.)
  2. youtube.com (358,56 Mio.)
  3. facebook.com (316,66 Mio.)
  4. amazon.de  (311,17 Mio.)

99,1 Prozent aller Klicks auf Google entfallen auf ein Suchergebnis auf der ersten Seite. Das heißt, nur 0,9 Prozent aller Nutzer machen sich die Mühe, auf die 2. Seite zu klicken, obwohl dort unter Umständen eine bessere Antwort für ihre Suchanfrage zu finden ist.

Wichtigstes Erkennungsmerkmal einer Website ist ihre Adresse, die mit einer sogenannten Top-Level-Domain endet. Die weltweit meistgenutzte Domain ist ".com" mit mehr als 149 Millionen Adressen. Danach folgen mit großem Abstand die über 21 Millionen chinesischen ".cn"-Domains. Auf Platz drei liegen die deutschen Domains ".de" mit mehr als 17 Millionen Websites.

In Deutschland nutzen 89 Prozent der Personen ab 16 Jahren das Internet, also rund 61 Millionen Menschen. Davon sind 22 Prozent im Alter zwischen 16 und 29 Jahren, 34 Prozent zwischen 30 und 49 Jahren, 36 Prozent zwischen 50 und 69 Jahren und nur 8 Prozent sind 70 Jahre und älter.

Der überwiegende Teil der Menschheit profitiert von dem weltweiten Pool an Daten, Informationen und Wissen, der sich über Webseiten erschließt. Dennoch ist unsere Gesellschaft weiterhin geteilt in Onliner und Offliner, in Deutschland haben 8 Millionen Menschen bislang keinen Zugang zum Internet gefunden.

Weitere Fakten rund ums Internet:

  1. Die erste Website der Welt ist noch heute noch aufrufbar: http://info.cern.ch/hypertext/WWW/TheProject.html
  2. Web 2.0 beschreibt die veränderte Nutzung und Wahrnehmung des Internets hin zur aktiven Mitgestaltung durch die Nutzer.
  3. Aus 3 Komponenten besteht das WWW in seiner Ursprungsform: HTML (Hypertext Markup Language), HTTP (Hypertext Transfer Protocol) und URL (Uniform Resource Locator).
  4. 11 Milliarden € Umsatz wurden in Deutschland 2021 mit dem Verkauf von Smartphones gemacht.

Internet Dienste

  • World Wide Web (WWW) (hat das Internet 1993 zum Durchbruch geholfen)
  • E-Mail
  • FTP (File Transfer Protocol)
  • Newsgroups
  • Telnet
  • Telefonie
  • Web-Fernsehen
  • Web-Radio
  • Diskussionsforen
  • Chat

Nutzung des Internets

  • Internetsurfen: bezeichnet das finden von Webseiten in WWW mit Hilfe von Web Suchmaschinen. Den größten Marktanteil (91%) hat Google (online seit 1998 und Suche in 8 verschiedenen Sprachen möglich). Andere Suchmaschinen sind Microsoft Bing, DuckDuckGo und Yahoo!. Wer einen Begriff in der Google Suche eingibt, bekommt je nach Eingabe unterschiedlich viele Suchergebnisse ausgespielt. Bei allgemeinen Begriffen überschreitet nicht selten die Anzahl der Treffer die hundert Millionengrenze, doch die Anzahl der tatsächlich angezeigten Ergebnisse ist zwischen 150 und 1.000!
  • Die am häufigsten aufgerufenen Websites in Deutschland waren 2021:
  1. google.com (934,70 Mio.)
  2. youtube.com (358,56 Mio.)
  3. facebook.com (316,66 Mio.)
  4. amazon.de  (311,17 Mio.)

Die wichtigsten Google-Search Ranking-Faktoren sind:

  • Relevanz (bestimmt sich unter anderem durch die Anzahl und Qualität der Backlinks, die auf die Seite und die dazugehörige Website zeigen.)
  • E-A-T (Je mehr E-A-T - kurz für Expertise, Authority, Trust) eine Seite besitzt, desto vertrauenswürdiger ist sie.)
  • Nutzererfahrung (Je besser die Nutzererfahrung einer Seite ist, desto schneller beantwortet sie die Suchanfrage. Dazu zählt unter anderem, ob eine Seite mobiloptimiert ist und wie schnell sie lädt.)
  • Technische SEO (sorgt unter anderem dafür, dass eine Seite fehlerfrei gecrawlt, indexiert und im Browser angezeigt werden kann. Sie ist kein Ranking-Faktor an sich, stellt aber sicher, dass die Ranking-Signale einer Seite vollständig bei Google ankommen und wirkt sich auf andere Faktoren aus.) Dazu gehören:
  • On-Page-Optimierungen (On-Page-Optimierungen beziehen sich auf die Optimierungen, die direkt auf der eigenen Webseite vorgenommen werden. Dazu gehören unter anderem die Optimierung von Meta-Tags, die Optimierung von Headlines und die Optimierung von Inhalten.)
  1. Systematische Darstellung, Speicherung, Verarbeitung und Übertragung von Daten, wobei Keyword zu erreichen.)
  • Off-Page-Optimierungen (Off-Page-Optimierungen beziehen sich auf die Optimierungen, die nicht direkt auf der eigenen Webseite vorgenommen werden. Dazu gehören unter anderem der Aufbau von Backlinks und die Verwendung von Social-Media-Marketing.)
  1. Backlinks aufbauen (Ein wichtiger Faktor für das Google Ranking sind Backlinks, also Links von anderen Webseiten auf die eigene Webseite. Je mehr qualitativ hochwertige Backlinks eine Webseite hat, desto besser ist ihr Ranking. Um Backlinks aufzubauen, kann man beispielsweise Gastartikel auf anderen Webseiten veröffentlichen oder seine Webseite in Webkatalogen eintragen.)
  2. Social-Media-Marketing (Auch das Social-Media-Marketing kann dazu beitragen, das Google Ranking zu verbessern. Durch den Einsatz von Social-Media-Kanälen wie LinkedIn, Facebook, Twitter und Instagram kann man seine Webseite bekannter machen und somit auch mehr Traffic generieren. Durch regelmäßige Veröffentlichung von interessanten und ansprechenden Beiträgen kann man darüber hinaus auch das Engagement der Nutzer erhöhen und somit auch das Google Ranking verbessern.)
  3. Verwenden des Hauptschlüsselwortes (Der Schlüsselwort sollte möglichst präzise beschreiben, um was es auf die Webseite geht, in den Titel der Seite drin sein, in der Metabeschreibung vorkommen und relativ oft - 1% bis 3% - in den Inhalte erscheinen)
  4. Richtige Länge der Seitentitel (zwischen 40 und 60 Zeichen)
  5. Richtige Länge der Metabeschreibung (max. 160 Zeichen)
  6. Optimieren der Ladezeit (Eine schnell geladene Webseite wird von Google als relevanter eingestuft als eine langsame Webseite. Die Ladezeit der Webseite kann verbessert werden indem man die Größe von Bildern reduziert oder unnötige Skripte entfernt werden)
  7. Verwenden von internen Verlinkungen (Es sind Verlinkungen innerhalb der Webseite auf andere, relevante Seiten. Dadurch kann der Traffic innerhalb der Webseite gesteigert werden und Google erkennt, dass die Webseite gut strukturiert ist. Eine gute interne Verlinkung deiner Seite ist wichtig, um den Besuchern wie auch den Suchmaschinen die Navigation auf deiner Seite zu erleichtern. Auch externe Links zu qualitativ hochwertigen Seiten sieht Google gerne.)
  8. Regelmäßige Aktualisierung der Inhalte (Eine Webseite, die regelmäßig aktualisiert wird, wird von Google als relevanter eingestuft als eine Webseite, die seit Monaten oder sogar Jahren nicht mehr aktualisiert wurde)
  9. Richtige Länge der Domain-Name
  10. Anzahl der enthaltenen Bilder (Benutzer mögen Bilder. Suchmaschinen ebenso. Ganz wichtig bei Bildern ist, dass das "alt"-Tag gesetzt ist und eine alternative Beschreibung für jedes Bild vorhanden ist. Eines der Bilder sollte dein Keyword im "alt"-Tag enthalten.)
  11. Genügengend große Seiteninhalt (mindestens 300 Wörter)
  12. Die richtige URL-Struktur (Der Schlüsselwort sollte in den URL enthalten sein)
  • Online zu sein bedeutet meist eine permanente Verbindung mit dem Internet.
  • Downloaden (Herunterladen) von Software und Apps
  • Soziale Medien (z.B. Facebook, YouTube, WhatsApp)
  • Professionale Medien (LinkedIn, XING)
  • Online-Banking
  • Reisen buchen
  • Tickets buchen
  • Online Shopping (Ein- und Verkaufen(Amazon, eBay, Alibaba, Rakuten, Etsy, Hood.de, Yatego, Avocado Store, Amazon Web Services). Amazon Web Services (AWS) ist eine vom gleichnamigen Unternehmen angebotene Plattform für Cloud-Computing. Kunden können dort Anwendungen und Webseiten und Dienste hosten lassen, Ressourcen für rechenintensive Aufgaben mieten und vieles mehr.
  • Cloud-Computing
  • Internet der Dinge (Internet of Things - IoT)

Weitere Begriffe

  • URL (Uniform Resource Locator) ist der Pfad zu einer bestimmten Datei auf einem Server. In der Regel bezeichnet eine URL eine Internetadresse und sie wird mit Hilfe von Webbrowser abgerufen. Eine URL besteht in der einfachsten Beschreibung aus drei Teilen: Protokoll (https://, ftp://), Domain- oder Server-Name (www.domain.de) und optional Dateipfad (/verzeichnis/datei. html). Der Dateipfad kann aus mehreren Verzeichnisebenen bestehen. Anstelle des Server-Namens könnte auch eine IP-Adresse stehen.

     Beispiel: 

https://www.stefangross-informatikmosaik.de 

Protokoll: https

Subdomainwww

Domain: stefangross-informatikmosaik.de 

Top Level Domain: de

  • Eine Internet-Domain wird in einem Webbrowser eingegeben, um eine Webseite zu erreichen. Jede Domain besteht aus 3 Ebenen, die jeweils durch einen Punkt voneinander getrennt sind (www.domain.de).

    Eine Domain ist weltweit einzigartig.

    Beispiel:

www.stefangross-informatikmosaik.de

  • Eine Homepage ist die erste Seite des Verzeichnisses einer Webseite.
  • Eine Webpräsenz (Internet-Auftritt) kann auch ohne aufwendige Programmierung mit Hilfe eines Content Management Systems (CMS) erstellt werden (z. B. Webador, Wix, Jimdo, Joomla, Jonos, WordPress)

Folgende Schritte sind für die Erstellung einer eigenen Homepage mit Hilfe einer CMS zu befolgen:

  1. CMS auswählen
  2. Domainnamen sichern (Jede Website braucht eine Adresse im Internet, unter der man sie aufrufen kann. Deshalb sollten man sich einen markanten Domainnamen überlegen, checken, ob er noch frei ist und diesen dann registrieren lassen).
  3. Hosting-Anbieter wählen 
  4. Erstellen der eigenen Webseite (CMS haben kostenloser oder kostenpflichtiger Gestaltungsvorlagen (Themes). Mit Hilfe des CMS kann man die Webseiten schnell erstellen und bequem verwalten: man kann ein Webseiten-Design und mit dem CMS-Editor Texte und Bilder in die Webseiten einfügen).
  5. Suchmaschinen-Optimierung (SEO) (Wenn die CMS nicht schon standardmäßig für die erstellten Websiten SEO anbietet, kann man ein paar Regeln befolgen für eine effektive SEO der eigenen Webseiten --> siehe Absatz weiter oben
  6. Responsiver Webseite erstellen, dessen Hauptbausteine sind: Medien-Anfragen, Flexibles Layout, Flexible Einheiten, Positionierungselemente und Bilder.
  • Ein Internetanschluss mit DSL sollte mindestens 16 Mbit/s schnell sein.
  • Die IP-Adresse (IP steht für Internet Protokoll) ist die eindeutige Adresse jedes Gerätes im Internet oder in einem lokalen Netzwerk.
  • Ein Internetdienstanbieter oder Internet Service Provider (ISP) ist ein Dienstleister, der Internet-Nutzer Services (z.B. Internetverbindung) bereitstellt.
  • Für die Erstellung Webanwendungen (Web-Apps) werden meist HTML (HyperText Markup Language), CSS (CascadingStyle Sheet), Java, JavaScript, TypeScript, PHP, Python, Perl, Ruby, C#, C++ sowie die Frameworks Angular, Spring, Vue.js und Django eingesetzt.
  • Heutzutage werden Geräte (z. B. PCs) über WLAN (Wireless Local Area Network) - die über Funkverbindung funktionieren - mit dem Internet über einen Router verbunden.

 

Was sind Soziale Medien?

Soziale Medien sind digitale Medien, die es Nutzern ermöglichen, sich übers Internet zu vernetzen.

Die größten Soziale Medien sind Facebook (knapp 3 Milliarden Nutzer - gegründet 2004, USA), YouTube (ca. 2,5 Milliarden Nutzer - gegründet 2005, USA), WhatsApp (2 Milliarden Nutzer - ab 2009), Instagram, Wechat, TikTok, Pinterest und Twitter.

Ein bekannter Musikdienst von YouTube ist YouTube Music.

Im Professionelle Netzwerken können Mitglieder vorrangig ihre berufliche Kontakte verwalten und Jobangebote erhalten.

Bekannteste solche Netzwerke sind LinkedIn (850 Millionen Nutzer in 200 Länder - gegründet 2002 in den USA - das größte der Welt) und XING in deutschsprachigen Raum (ca. 20 Millionen Nutzer - gegründet  2003 in Hamburg).

73% der Firmen haben mithilfe von Social Media erfolgreich Kandidaten eingestellt.

Eine kostenlose internetbasierter Instant-Messaging-Dienst, mit dem man Video- und Sprachanrufe machen kann, ist Skype (2003 in Luxemburg eingeführt) eine andere bekannte Software ist Slack.

Für Videokonferenzen wird in Unternehmen meist Microsoft Teams und Google Meet benutzt.

Bekannte Online Job- und Meta- Suchmaschinen in Deutschland sind Stepstone, LinkedIn, Indeed, XING, beBee, Talent.com, Jobvector, E-Fellows.net, Monster, kimeta.de, Staufenbiel Institut und Absolventa, kalaydo.de, jobrapido, JobRobot, jobware, Joblift, JobLeads, Jobspreader, jobSwipe, jobworld, WhatJobs, Jobscanner, jooble, jobted, joboo, HeyJobs, Hokiy, Online Stellenbörse, meinestadt.de, stellenanzeigen.de, Kimeta, Gigajob, MetaJob und Backinjob.

Kununu ist ein Arbeitgeberbewertungsplattform.

Personaldienstleister (Personalservice) erbringen  verschiedene Leistungen im Personalbereich. Dazu zählen vor allem die Personalvermittlung, Personalberatung, das Coaching und die Arbeitnehmerüberlassung. Das Leistungsangebot von Personaldienstleistern richtet sich an Bewerber und Firmen. Ein zentraler Aufgabenbereich ist die Personalvermittlung. Personalvermittler suchen und kontaktieren geeignete Kandidaten, rekrutieren Führungskräfte , führen Vorstellungsgespräche und vermitteln Bewerber. Personaldienstleister können Recruitingfirmen, Headhunter oder Personalagenturen sein. Bekannte Personaldienstleister sind Randstad, Adecco, DIS AG, Experis, Brunel, Hays, Vesterling, Ferchau, Westhouse Group, TIMEPARTNER, Rosa Experts, da Vinci Engineering und Amadeus Fire.

Eine umfassende und durch offene Beiträge entstandene Online-Enzyklopädie ist Wikipedia (start 2001 durch Jimmy Wales, jetzt in 315 Sprachen verfügbar).

 

Was ist Kryptologie?

Die Verschlüsselung einer Nachricht ist die Kryptografie (aus  den griechischen Kryptos für verborgen, graphein für schreiben).

Das Entziffern einer verschlüsselten Nachricht ist die Kryptoanalyse. Beides zusammen - also das Verschlüsseln und das Entziffern - wird als Kryptologie bezeichnet. Kryptologie ist also die Verschlüsselung von Nachrichten oder Daten zum Zwecke der Geheimhaltung.

Man kann drei Epochen in der Kryptographie ausmachen: In den 1en wurde per Hand oder mit mechanischen Scheiben verschlüsselt, in der 2en (etwa 1920 bis 1970) wurden spezielle Maschinen verwendet und in der 3en (seit 1970) übernahmen Computer eine zentrale Rolle.

Meilensteine in der Kryptographie-Geschichte

  • Der Skytale (ein antiker Verschlüsselungsstab aus Holz)
  • Die Cäsar-Chiffre (basiert auf monoalphabetische Substitution und wurde vor über 2000 Jahren von Julius Caesar verwendet, um geheime Nachrichten auszutauschen)
  • Die Chiffrierscheibe (eines der ersten Geräte zur Verschlüsselung)
  • Al-Kindi (Er war ein arabischer Philosoph, Wissenschaftler, Mathematiker, Arzt und Musiker. al-Kindi gilt als einer der Pioniere auf dem Gebiet der Kryptoanalyse. Er war ebenfalls Autor der ersten Abhandlung über Kryptoanalyse. Darin zeigte er, wie die monoalphabetische Substitution durch die Methode der Häufigkeitsanalyse gebrochen werden konnte)
  • Der Geheimschrift von Maria Stuart (16. Jahrhundert)
  • Die Vigenère-Chiffre (eine Handschlüsselmethode, ein monographisches polyalphabetisches Substitutionsverfahren aus dem 16. Jahrhundert, galt zu seiner Zeit als unknackbar.)
  • Leon Battista Alberti gilt als als der erste bedeutende Kryptologe Europas. Zusammen mit seinen Nachfolgern entwickelte er eine polyalphabetische Verschlüsselung, die lange Zeit als unentschlüsselbar galt. Er veröffentlichte 1466/1467 seine Arbeiten.
  • ADFGX (Substitutionsverfahren gefolgt von Transposition - eingesetzt im Ersten Weltkrieg)
  • Das One-Time-Pad (ein Einmalschlüssel-Verfahren - Der Schlüssel hat mindestens die gleiche Länge wie die Nachricht selbst. Dieses Verfahren gilt als unüberwindbar.)
  • William Friedman (seine Karriere als Codeknacker begann in den Riverbank Laboratories bei Chicago. Im Ersten Weltkrieg war er Kryptologe im Dienst der US-Regierung. Während seines Lebens prägte er den Begriff der Kryptographie maßgeblich, entwickelte die statistische Methode Friedman-Test, sowie den Koinzidenzindex, löste in seinem Leben an die 1000 Verschlüsselungen und war der Gründer der Signals Intelligence Service (SIS), eine Geheimabteilung des US-Militärs, das sich der Entzifferung feindlicher Nachrichten widmete)
  • Arthur Scherbius (Er ist der Erfinder der Enigma Chiffriermaschine die er 1918 patentieren ließ. Die durch Enigma verschlüsselten Nachrichten galten als   unbezwingbar da die Enigma theoretisch ein Fünftel einer Quadrillion verschiedene Schlüssel generieren konnte - Um alle möglichen Schlüssel durchzuprobieren indem man jede Minute eine andere Maschineneinstellung einstellt würde man 1400 Jahre brauchen)
  • Alan Turing (Der britische Computerpionier und Kryptoanalytiker entwarf die Turing-Bombe mit Hilfe dessen die Enigma-Verschlüsselung gebrochen werden könnte)

Die Computer Ära wurde geprägt durch das Entwickeln von sehr sicheren Verschlüsselungsverfahren mit Hilfe des Computers und unter anderem die Lösung des Problems der Schlüsselverteilung. Nachfolgend gibt es eine Auflistung dieser Verschlüsselungsverfahren:

  • Data Encryption Standard (DES) (Wurde als offizieller Standard für die US-Regierung im Jahr 1977 bestätigt und wird seither international vielfach eingesetzt.)
  • Public-Key-Kryptographie (Die Daten werden beim diesem Verfahren mit einem öffentlichen Key verschlüsselt, der aus einem langen, geheimen Zifferncode besteht.)
  • Pretty Good Privacy (Wurde von Phil Zimmermann entwickelt und nutzt eine Variante des Public-Key-Systems, bei dem jeder Anwender einen öffentlichen Schlüssel besitzt, der beliebig weitergegeben werden kann. Dazu kommt ein privater Schlüssel, der nur dem Anwender bekannt ist.)
  • Advanced Encryption Standard (AES) (ein symmetrischer Verschlüsselungsalgorithmus, das feste Datenblöcke von 128 oder 256 Bit verschlüsselt. Es ist eine sehr sichere und sehr oft benutzte Verschlüsselung. Um alle möglichen Schlüssel durchzuprobieren bräuchte der schnellste Supercomputer der Welt ca. 10^51 Jahre - eine Nummer mit 51 Nullen. Zum Vergleich: seit der Enstehung der Erde sind nur aprox. 4*10^9 Jahre vergangen. Dadurch ist dieser Verschlüsselung aktuell und in absehbarer Zukunft unknackbar)
  • Rivest-Shamir-Adleman (RSA) Verfahren (Benutzt eine mathematische Einwegfunktion und zwar das Multiplizieren von 2 sehr große Primzahlen - aktuell mit etwa 300 Dezimalstellen - aber der Rückweg also die Faktorisierung dieses Ergebnisses würde auch für das schnellste Supercomputer der Welt hunderte von Jahren dauern, ein PC bräuchte um einen RSA mit der vom National Institute of Standards and Technology (NIST) empfohlenen Schlüssellänge 2048-Bit zu knacken und somit dessen Primfaktorzerlegung zu lösen, eine Zeit von 14 Milliarden Jahren. RSA ist aktuell noch unbezwingbar aber Quantencomputer könnten eine Gefahr für RSA werden.)
  • Triple-DES (Es handelt sich um eine Mehrfachverschlüsselung auf Basis einer DES-Verschlüsselung)
  • Twofish (Es ist ein Verschlüsselungsalgorithmus mit eine Schlüssellänge von 256 Bit)

Bis zur Verwendung des Computers gab's in der Kryptographie einen Kampf zwischen der Seite, die immer bessere Verschlüsselungsverfahren entwickelte und die Seite, die diese Chiffre zu entschlüsseln hoffte. Die Chiffre der Maria Stuart wurde entziffert, mit fatalen Folgen für die Königin. Die Vigenère-Chiffre galt zu seiner Zeit als unknackbar, wurde aber von Charles Babbage 1854 entschlüsselt. Auch der Code der deutschen Enigma-Maschine galt als unbezwingbar, wurde aber ab 1941 von der Codebrecher in Bletchley Park (England) geknackt - allerdings nur durch den Einsatz von riesigen elektromechanischen Maschinen, die Turing Bomben. Nach Meinung vieler Historiker wurde dadurch der Zweite Weltkrieg in Europa verkürzt.

Es gibt die Verschlüsselungsverfahren monoalphabetische Substitution und polyalphabetische Substitution.

Die monoalphabetische Substitution ist ein einfache Väerfahren um einen Klartext zu verschlüsseln. Dabei wird jedes Zeichen des Klartextes nach einer festgelegten Verschlüsselungsvorschrift durch ein anderes, ihm zugeordnetes Zeichen substituiert. Die monoalphabetische Substitution kann durch die Methode der Häufigkeitsanalyse gebrochen werden.

Die polyalphabetische Verschlüsselung ist eine Textverschlüsselung, bei der einem Buchstaben/Zeichen jeweils ein anderer Buchstabe/Zeichen zugeordnet wird. Im Gegensatz zur monoalphabetischen Substitution werden für die Zeichen des Klartextes mehrere Geheimtextalphabete verwendet.

Es gibt zwei Grundtypen der Verschlüsselung: die symmetrische Verschlüsselung (mit nur einem einzelnen Schlüssel) und die asymmetrische Verschlüsselung (mit zwei Schlüssel).

Kryptologie findet man überall im AlltagInternetsurfen, Online Banking, Online Shopping, mit der Kreditkarte zahlen und am Automaten Geld abheben - all das wäre ohne die Kryptografie undenkbar. Die einzige Software, die zur Nutzung der Online-Dienste der Banken erforderlich ist, ist ein Internet-Browser.

Der neueste Ansatz ist die Quantenkryptographie, die als absolut sicher gilt, da ein Lauscher entdeckt würde, weil seine Messung die gesendeten Daten beeinflusst.

 

Was ist Robotik?

Als Robotik bezeichnet man einen Teilbereich der Ingenieur- und Naturwissenschaften, der Maschinenbau, Elektrotechnik, Informatik und andere einschließt. Robotik befasst sich mit dem Entwurf, der Konstruktion, dem Betrieb und der Nutzung von Robotern sowie Computersystemen für deren Steuerung, sensorische Rückkopplung und Informationsverarbeitung.

Ein Roboter ist eine Einheit, die diese Interaktion mit der physischen Welt auf der Basis von Sensoren, Aktoren und Informationsverarbeitung umsetzt. Ein zentrales Einsatzgebiet von Robotern ist Industrie 4.0 (Industrieroboter).

Der US-Amerikaner George Devol (1912 bis 2011) erfand 1954 ein Verfahren zur Maschinensteuerung, das er sich patentieren ließ. Er entwickelte im Jahr 1956 Unimate, den ersten Industrieroboter.

Der US-amerikanische Ingenieur Joseph Engelberger (1925 bis 2015) gilt als Vater der Robotik. Er gründete 1961 zusammen mit George Devol das Unternehmen Unimation, das sie im Jahr 1983 für 107 Millionen Dollar verkauften. Später entwarf er den Roboter Help-Mate, der als Kurier das Krankenhauspersonal entlasten sollte.

Weltmarktführer der Industrieroboterhersteller waren im Jahr 2020 die beiden japanischen Unternehmen Fanuc und Yaskawa Electric, gefolgt von ABB aus der Schweiz um dem deutschen Hersteller Kuka.

Der russische Autor Isaac Asimov stellte 1942 in seinem Werk "Runaround" drei Robotergesetze auf, die man wie folgt wiedergeben kann: (1) Roboter dürfen keine Menschen verletzen, (2) Roboter müssen den Befehlen des Menschen gehorchen, (3) Roboter müssen sich selbst schützen.

Roboter übernehmen meist sich wiederholende, langweilige oder gefährliche Aufgaben und können so Menschen entlasten. Immer häufiger kommt in Roboter Künstliche Intelligenz zum Einsatz.

Anwendungsgebiete der Robotertechnik

Kollaborative Roboter (Cobots)

Cobots (Abkürzung von "collaborative robot") kommen eine immer größere Bedeutung zu. Herkömmliche Industrieroboter werden in immer mehr Bereichen der Industrie durch Cobots ersetzt oder erweitert. Cobots kommen in Zusammenarbeit mit Menschen im Produktionsprozess zum Einsatz und sind dabei nicht mehr wie die typischen industriellen Roboter durch Schutzeinrichtungen von ihren menschlichen Kollegen getrennt. Kollaborative Roboter sind im Vergleich zu traditionellen Industrierobotern kompakter, flexibler einsetzbar und leichter zu programmieren. Dabei ersetzen Cobots nicht die Arbeitsplätze des Menschen, sondern ergänzen diese.

Industrieroboter

Als Industrieroboter werden programmierbare Maschinen bezeichnet, die zur Handhabung, Montage oder Bearbeitung von Werkstücken im industriellen Umfeld  eingesetzt werden. Diese Roboter bestehen zum Großteil aus einem Roboterarm, einem Greifer, diversen Sensoren sowie einer Steuerungseinheit. Sie können Aktionen entsprechend ihrer Programmierung auch autonom ausführen. Die globale Roboterdichte hat sich in den letzten Jahren signifikant erhöht: pro 10.000 Mitarbeiter gibt es aktuell 74 Einheiten. Weltweit waren im Jahr 2016 rund 290.000 Industrieroboter im Einsatz und es wird erwartet, dass deren Zahl in den nächsten Jahren wachsen wird. In der Automobilindustrie spielen Industrieroboter seit mehr als 50 Jahren eine wichtige Rolle bei automatisierten Produktionsprozessen, um Abläufe effizienter, sicherer, schneller und flexibler zu gestalten. So wurde der erste Industrieroboter Unimate bereits 1961 bei General Motors in den Produktionsprozess integriert. ln der Automobilbranche der USA 2016 waren mehr als 17.600 Industrieroboter im Einsatz.

Autonome Transportsysteme (AGV)

Ein AVG (Automated Guided Vehicle) ist ein fahrerloses Transportfahrzeug mit eigenem Fahrantrieb, das automatisch gesteuert und berührungslos geführt wird. AGVs werden typischerweise eingesetzt, um Materialien in einer Produktionsstätte zu transportieren. Im industriellen Umfeld stehen sie für die Entwicklung vom klassischen, sperrigen Förderband zur platzsparenden, hochflexiblen Lösung. Ein weiterer beliebter Einsatzort für AGVs sind Lagerhallen.

Drohnen

Neben Robotern spielen auch Drohnen in der Industrie eine zunehmend wichtige Rolle. Unter dem Begriff "Drohne" wird meist ein unbemanntes Fluggerät verstanden, das entweder über Funk gesteuert wird oder dessen Verhaltensweisen zuvor über ein Softwareprogramm programmiert wurde.

Service-Roboter

Ein Service Roboter ist eine Maschine, die Dienstleistungen für Menschen erbringt. Dabei wird zwischen dem Einsatz für Privatpersonen und dem im professionellen Umfeld unterschieden. Im Privatbereich sind beispielsweise Staubsauger- oder Rasenmäher Roboter in Haushalten etabliert. Es gibt auch Liefer-Roboter im Einzelhandel.

Überwachungsroboter

Überwachungsroboter kontrollieren den Haushalt, während der Mensch nicht anwesend ist. Per App lassen sich diese Roboter über eine Internetverbindung steuern. Nimmt der Roboter per Bewegungserkennung entsprechende Impulse wahr, sendet er ein Alarmsignal auf ein Smartphone. Die integrierte Kamera macht Aufnahmen und verfügt über eine Gegensprechfunktion.

Weitere Einsatzgebieten von Roboter sind die Landwirtschaft, die Gastronomie, in der Therapie oder als Chirurg-Assistent.

Es gibt auch Humanoide Roboter und Spielzeug-Roboter. Vorreiter in dieser Richtung ist Japan. Humanoide Roboter haben heutzutage schon beachtliche Fähigkeiten, diese reichen vom Kommunizieren über das Musizieren und Bewegen bis hin zur Hilfe im Haushalt. Jetzige Humanoiden Roboter besitzen um die 50 Freiheitsgrade und viele Aktuatoren. Es gibt einen Humanoiden Roboter ("Pibot") der ein Flugzeug fliegt. Ein LEGO Roboter konnte den Rubik-Würfel lösen.

Während die NASA derzeit versucht, die künstliche Intelligenz ihrer Marsrover zu verbessern und an einem automatisierten Satellitenreparaturroboter arbeitet, sind auch andere Unternehmen daran interessiert, die Weltraumforschung durch Robotik und KI zu verbessern. CIMON von Airbus beispielsweise ist eine Art Alexa im Weltraum, die Astronauten von der Internationaler Weltraumstation (ISS) bei ihren alltäglichen Aufgaben unterstützen und durch Spracherkennung Stress reduzieren soll, gleichzeitig aber auch als Frühwarnsystem zur Erkennung von Problemen fungiert. Und die NASA ist auch nicht das einzige Team, das an autonomen Rovern arbeitet. Der Rover von iSpace könnte mit Hilfe von Bordwerkzeugen dafür verantwortlich sein, in nicht allzu ferner Zukunft den Grundstein für einer "Moon Valley"-Kolonie abseits der Erde zu legen.

 

Was ist Kybernetik?

Die Kybernetik kann als die Wissenschaft derRegelung und Steuerung von Maschinen bzw. Systemen bezeichnet werden. Im Mittelpunkt steht dabei die Frage nach der Analogie von Maschinen und Systemen zur Handlungsweise von sozialen Organisationen und lebenden Organismen.

Die Kybernetik wurde als eigenständige Disziplin bereits in den 1940er Jahren durch den US-amerikanischen Philosophen und Mathematiker Norbert Wiener begründet. Norbert Wiener hat der Ausdruck Kybernetik in seinem Werk "Cybernetics or Control and Communication in the Animal and the Machine(1948) geprägt. Seit etwa Mitte des 20. Jahrhunderts wird der Begriff Kybernetik häufig mit Regelungstechniken (cybernetics) gleichgesetzt. Heute spielt die Kybernetik vor allem auch im Hinblick auf die IT-Technologie eine bedeutende Rolle.

Dabei lassen sich zwei unterschiedliche Vorgehensweisen identifizieren:

  • Die Rückkopplung durch Beobachtung und Kommunikation im Rahmen der Handlungs- und Vorgehensweise von sozialen Organisationen.
  • Die Rückkopplung durch Sinnesorgane im Rahmen der Handlungs- und Vorgehensweise von lebenden Organismen.

Die Relevanz von Kybernetik in der Informationstechnologie

Im Fokus stehen dabei die kybernetischen Systeme. Die Kybernetik befasst sich dabei insbesondere mit der Informationsverarbeitung sowie der Regelung und Steuerung innerhalb dynamischer Systeme. Im Wesentlichen geht es diesbezüglich zum einen darum, in welcher Form und mit welchen Mitteln dynamische Systeme alle relevanten Informationen verarbeiten können. Zum anderen steht die Frage im Mittelpunkt, wie sich diese Systeme zielgerecht lenken lassen und wie sich die Systeme selbst steuern und lenken können.

Kybernetik im Zusammenhang mit der digitalen Transformation

Auf die IT bezogen, ermöglicht es dieser System-Typus, eine Verbindung zwischen digitalen Netzinfrastrukturen und Vorgängen der physischen Realität herzustellen.

Die wichtigsten Kybernetik-Anwendungen im digitalen Kontext sind:

  • Technische Kybernetik
  • Automatisierungstechnik
  • Mechatronik
  • Biomechatronik
  • Robotik
  • Künstliche neuronale Netze
  • Künstliche Intelligenz

Was ist Virtuelle Realität (VR)?

Virtuelle Realität (Virtual Reality - VR) ist eine computergenerierte interaktive virtuelle Umgebung mit Bild (3D) und in vielen Fällen auch Ton. Es handelt sich um eine künstlich erzeugte, digitale Welt. Diese umgibt den Nutzer vollständig, sodass die physische Realität ausgeblendet wird.

Der User kann sich in der virtuellen Realität bewegen und mit dem Gesehenen interagieren. Das macht das Eintauchen in die virtuellen Welten besonders intensiv. Diese wird über Großbildleinwände, in speziellen Räumen (Cave Automatic Virtual Environment, kurz CAVE) oder über ein Head-Mounted-Display (Video- bzw. VR-Brille) übertragen. Bei Mixed Reality wird entweder Realität erweitert (Augmented Reality). Meist gibt es in VR bestimmte Formen der Interaktion, und sei es nur im Sinne der körperlichen Bewegung durch die virtuelle Welt. Zur Interaktion mit Objekten werden neben der Video- oder VR-Brille (Datenbrille) spezielle Eingabegeräte gebraucht, etwa 3D-Maus und Datenhandschuhe. Virtuelle Realität spielt eine Rolle bei der Aus- und Weiterbildung (Benutzung von Flug- oder Operationssimulatoren), bei der Informationsvermittlung (Aufklärung in Bezug auf Bauvorhaben) und in der Unterhaltung (Erkundung von und Erprobung in Abenteuer- und Fantasy Welten, Fortbewegung mit Rennauto und Achterbahn).

Der Begriff "virtual reality" wurde erstmals 1982 in dem Science-Fiction-Roman "The Judas Mandala" von Damien Broderick verwendet. Bei VR wird die reale Umgebung lediglich um bestimmte virtuelle Aspekte erweitert. Beispielsweise erscheinen auf dem Display eines Smartphones ein Foto, Navigationsanweisungen oder weitere Informationen. Diese Einblendungen erfolgen in 3D. 

VR Geschichte und Entwicklung der VR

Als Vorläufer der virtuellen Realität gelten analoge 360-Grad-Rundbilder, die den Betrachter vollständig umgeben. Diese gab es bereits in der Antike. Ein berühmtes Beispiel dafür ist das Bildfries in der Mysterienvilla in der Nähe von Pompeji.

Pionier der Virtual-Reality-Technologie war der Amerikaner Morton Heilig (1926-1997): Im Jahr 1956 entwarf der Filmemacher einen Apparat namens "Sensorama". Er setzte zusätzlich zu einer Fahrzeugsimulation ein Display mit 3D-Grafik ein, das auf dem Kopf getragen wurde. Außerdem gehörten Stereo-Sound und ein Geruchs-Generator zu seinen Erfindungen. Er versuchte, alle Sinne in das Film-Erlebnis einzubeziehen.

2015 kamen zwei Virtual Reality-Headsets auf den Markt: Google Cardboard und das Samsung Gear VR. Beide brauchen zur Erzeugung von VR-Erlebnissen die Verbindung zu einem Smartphone.

Hardware und Software für die Erzeugung der VR

Für ein umfassendes Virtual-Reality-Erlebnis sind Hardware und Software nötig. Damit der Nutzer ein Gefühl der Immersion erlebt, trägt er ein Virtual-Reality-Headset. Eine Stereoprojektion - die Darstellung von zwei Bildern aus unterschiedlichen Perspektiven - vermittelt einen räumlichen Eindruck.

Anfangs waren VR-Headsets mit einem PC verbunden. Inzwischen gibt es kabellose Standalone-Lösungen, die mobil mit Akku funktionieren. Mit Eingabegeräten wie einer 3D-Maus, einem Datenhandschuh, einem Flystick zur Navigation oder einem omnidirektionalen Laufbandkönnen Nutzer mit der VR interagieren. Es gibt aber auch Systeme, für die keine externen Eingabegeräte nötig sind. Diese werden mit Handgesten oder Buttons am Headset gesteuert.

Virtual-Reality-Kameras nehmen 360-Grad-Videos in verschiedenen Formaten auf.

Damit eine virtuelle Realität entsteht, berechnet eine Software komplexe dreidimensionale Welten. Das Programm muss in der Lage sein, in Echtzeit wenigstens 25 Bilder in der Sekunde zu generieren - und zwar getrennt für jedes Auge. Bei Fahrsimulationen genügt diese Anzahl nicht. Bei unter 60 Bildern pro Sekunde besteht die Gefahr, dass den Nutzern der VR-Technik übel wird.

Dreidimensionale, virtuelle Objekte entstehen mit Hilfe spezieller Software. Für die Bearbeitung von Bild und Ton kommt ebenfalls eine bestimmte Software zum Einsatz.

Einsatz von VR in der Raumplanung

Mit Hilfe der VR-Technologie ist es möglich, die Umwelt dreidimensional nachzubilden, sodass die Menschen sehen und erleben können, wie sich die Umgebung bei der Implementierung einer bestimmten Infrastruktur verändern wirdDabei können die aktuelle Bebauung, das Verkehrsnetz, die Sehenswürdigkeiten und sogar der Schattenwurf realistisch dargestellt werden. Auch die Einrichtung von Innenräumen kann virtuell visualisiert und erlebt werden. Das macht es möglich, das ideale Raumkonzept zunächst digital zu planen und im Anschluss zu begehen.

Nutzung von VR in der Immobilienbranche

Die virtuelle Begehung von Immobilien stellt eine weitere Anwendungsmöglichkeit dar. Interessenten kann ein 360°-VR-Rundgang durch Wohnungen und Häuser ermöglicht werden. 

Anwendung von VR im Arbeitsschutz

Arbeitssysteme, aber auch Phasen des Produktlebenszyklus können mithilfe der VR-Technologie simuliert werden. Dadurch haben Arbeitnehmer die Möglichkeit, Anlagen, Maschinen und Arbeitsmittel zunächst in einer virtuellen Arbeitsumgebung kennenzulernen, bevor sie ihr neues Aufgabengebiet antreten. Dabei erscheinen Maschinen und Geräte in ihrer tatsächlichen Größe. Selbst technische Prozesse laufen in Echtzeit ab, sodass sich ein realitätsnaher Eindruck gewinnen lässt.

Vorteile:

  • Bereits während der Produktentwicklung kann ihre Tauglichkeit geprüft werden. Falls Optimierungen von Produkten und Prozessen nötig sind, können diese zeitnah vorgenommen werden. Auf diese Weise werden Fehlentwicklungen vermieden.
  • Die Mensch-System-Interaktion und der Einfluss auf menschliches Verhalten kann systematisch untersucht werden. Das reduziert die Notwendigkeit, im Nachhinein Umbaumaßnahmen vornehmen zu müssen.
  • Potenziell riskante Produkte, Prozesse und Schutzkonzepte lassen sich vorab virtuell testen.
  • Die Ursachen von Unfällen können mit geringem Aufwand ermittelt werden.

Einsatz der VR-Technologie in der Medizin

Besonders die Medizin und das Gesundheitswesen profitieren von den Möglichkeiten der virtuellen Realität. Sowohl in der Ausbildung von Nachwuchs Medizinern als auch bei Operationen und Psychotherapien leistet die Technologie wertvolle Dienste.

Nutzung von VR in Unterhaltungsmedien

VR findet sich in Fitnessgeräten und Simulatoren, mit denen beispielsweise virtuelle Flüge durch Städte oder rasante Achterbahnfahrten möglich sind und in Computerspiele und Videogames.

VR könnte sich in Zukunft verstärkt in andere Lebensbereiche einbinden lassen: Beim Einkaufen von Kleidung könnten Menschen sich in virtuellen Showrooms inspirieren lassen. Wer nicht live bei einem Musik- oder Sport-Event dabei sein kann, hat eventuell die Chance, dem Ereignis zumindest virtuell beizuwohnen.

VR in der Filmbranche

Auch Filme machen das Konzept der  VR zum Thema.

Beispiele:

  • "Simulacron-3 - Welt am Draht" (1973) und "The 13th Floor" (1999) - Hier gibt es keine  klaren Grenzen zwischen der realen und der virtuellen Welt. Inhaltlich widmen sich beide Produktionen der Frage, ob das Leben möglicherweise eine Simulation sein könnte.
  • "Tron" (1982) - Hier kämpft der Hauptdarsteller in der VR im Inneren eines Computers um sein Leben.
  • In den Filmen "Last Action Hero" (1993), "Enthüllung" (1994), "Brainscan" (1994) und "Vernetzt - Johnny Mnemonic" (1995) tauchen die Hauptfiguren in virtuelle Realitäten ein.
  • "Matrix" (1999), zeigt eine Welt, in der die Bevölkerung nahezu vollständig in VR lebt. Allerdings ahnen die Menschen davon nichts.
  • Auch in der US Science-Fiction-Serie "Raumschiff Enterprise -Das nächste Jahrhundert" ist die VR nicht von der tatsächlichen zu unterscheiden: Die Crewmitglieder haben die Möglichkeit, auf dem Holodeck in täuschend echt wirkende Wunsch-Welten einzutauchen.

Anwendung von VR in Videospielen

Beispiele sind die Wii-Fernbedienung, das Microsoft Kinect (Hardware zur Steuerung der Videospielkonsolen Xbox360 und XboxOne und die PlayStation Move/PlayStation Eye: Sie konnten Gesten und Bewegungen des Spielers auf die Spielekonsole übertragen.

Zu der neuen Generation von Virtual-Reality-Headsets gehört das leistungsstarke Oculus Rift, das extra für Spielzwecke entwickelt wurde. Konkurrenz kommt von der PlayStation VR (Codename Morpheus) von Sony Computer Entertainment. Diese benötigt als Plattform eine PlayStation 4 statt eines PCs.

Im Jahre 2015 kam das HTC Vive auf den Markt. Das besondere an diesem VR-Headset war die Tatsache, dass es die Position des Spielers in einem Bereich von über 20 Quadratmeter verfolgen kann.

Geschäfte, kulturelle Einrichtungen wie Museen und Hotels bieten ebenfalls virtuelle 360°-Rundgänge an. Auch das Reisen ist auf diese Weise unkompliziert möglich. Ein populäres Beispiel dafür ist Google Street View: Mit Headset und App ist es möglich, Wunschorte zu besuchen und in der virtuellen Welt zu erleben.

 

Computerspiele

2018 verbrachte ein Drittel der Weltbevölkerung regelmäßig Zeit mit Videospielen, sei es auf dem Smartphone, einer Spielkonsole oder dem PC.

Der Siegeszug der Videospiele begann in den 1970er-Jahren, hat seine Wurzeln aber rund 20 Jahre zuvor. Die Geschichte der Videogames ist eng mit der Entwicklungsgeschichte des Computers verbunden. In den 1950er-Jahren lösten riesige, raumfüllende Computer relativ einfache Rechenaufgaben. Ans Spielen war mit diesen Giganten nicht zu denken.

Und doch entwickelten Tüftler an US-Universitäten simple Computerspiele. Als erstes Videospiel, das nur zu Unterhaltungszwecken programmiert wurde, gilt Tennis for Two von 1958. Danach geriet das Spiel 20 Jahre lang in Vergessenheit, gilt heute aber als erstes Videogame überhaupt.

Ab 1985 wurde innerhalb des Compuserve-Netzwerks das erste kommerzielle Online-Spiel Island of Kesmai angeboten. Mit der Kommerzialisierung des Internets ab den frühen 1990er Jahren erreichten Online-Spiele zunehmend Privathaushalte.

1972 formierte sich die Firma Atari. Sie sollte nicht nur die Videospielindustrie während der nächsten Dekade dominieren, sondern sie entwickelte mit Pong auch das erste weltweit erfolgreiche Game überhaupt. Mit dem Spiel Space Invaders (1978) begann das goldene Zeitalter der Arcades - Spielhallen.

Zuvor machte die Computertechnik mit der Gründung von Apple 1976 und der Entwicklung von Mikroprozessoren wichtige Fortschritte. Und Atari gelang mit der Heimkonsole Atari 2600 ein weiterer Coup: Über 30 Millionen Menschen kauften die 1977 auf den Markt gebrachte Spielkonsole.

Die Gamescom ist die weltgrößte Messe der Gaming-Industrie Die Computerspiel-Industrie macht im Jahr mehr als 200 Milliarden $ Umsatz, viel mehr als die Filmindustrie. Trotzdem haben beide Branchen gemeinsam dass Künstliche Intelligenz gerade viel verändert.

Erfolgreichste Computerspiele

Nach Verkaufszahlen

  • Minecraft (2011, über 200 Millionen Mal verkauft)
  • Grand Theft Auto V (2013, ca. 180 Millionen Mal verkauft)
  • Tetris (2006, 100 Millionen Mal verkauft)

Nach Downloadzahlen

  • Subway Surfers (über eine Milliarde Downloads auf Android)
  • Candy Crush Saga (über eine Milliarde Downloads auf Android)
  • Hill Climb Racing (über eine Milliarde Downloads auf Android)

Spielekonsolen

Spielekonsolen sind prozessorgesteuerte Funktionseinheiten, deren Hardware und Software auf Computerspiele optimiert ist.

Es kann sich um eigenständige Einheiten mit oder ohne Display handeln. Spielekonsolen ohne eigenes Display können einen PC oder Fernseher als Display nutzen.

Die Hardware einer Spielekonsole mit dem Grafikprozessor und allen weiteren Komponenten unterstützen die sich schnell ändernden grafischen Darstellungen ebenso wie 3D-Grafiken.

Die Rechenleistung des Grafikprozessors ist extrem hoch und für Computerspiele optimiert. Um Computerspiele so realistisch wie möglich erscheinen zu lassen, arbeiten Spielekonsolen mit virtueller Realität und künstlicher Intelligenz.

Die bekanntesten Spielekonsolen sind Playstation, Xbox und Nintendo Switch.

 

Aktuelle Entwicklungen in der Informationstechnologie

Digitalisierung

Unter Digitalisierung werden im Allgemeinen die Umwandlung bzw. Darstellung von Information in digitaler Form oder die digitale Durchführung von Kommunikation verstanden.

Digitalisierung kann aber auch als die digitale Modifikation von Maschinen, Fahrzeugen oder Instrumenten verstanden werden.

Die digitale Revolution, die auch als dritte Revolution bekannt ist, bzw. die digitale Wende ist im vollen GangeWir sprechen von "Informationszeitalter" und "Computerisierung".

 

Cloud Computing

Cloud Computing bezeichnet die Nutzung von IT-Infrastrukturen und Dienstleistungen, die nicht vor Ort auf lokalen Rechner vorgehalten, sondern als Dienst gemietet werden und auf die über ein Netzwerk (z.B. das Internet) zugegriffen wird. 

Cloud Computing ermöglicht es Firmen, bei Bedarf auf fremde  Computerressourcen zuzugreifen, ohne neue Investitionen in ihre Hardware und/oder Software machen zu müssen.

Beispiele von Cloud-Software: Microsoft OneDrive, Google Drive und Apple iCloud.

Dezentralisierung ist einer der derzeit wichtigsten Trends beim Cloud Storage. Anstatt alle Daten eines Unternehmens an einem einzigen Ort zu speichern, werden bei der Dezentralisierung die Daten in Fragmente aufgeteilt und auf viele Cloud-Speichergeräte verteilt.

 

Edge Computing

Edge Computing ist eine Form der Datenverarbeitung, die direkt oder nahe bei einer bestimmten Datenquelle stattfindet, wodurch die Notwendigkeit der Verarbeitung von Daten in einem weit entfernten Rechenzentrum minimiert wird.

 

Internet der Dinge (Internet of Things - IoT)

IoT bezeichnet ein Netzwerk physischer Objekte, die über das Internet verbunden sind, so dass sie Daten miteinander austauschen können. Edge Computing, das das IoT unterstützt, findet näher am Ort der Datenerstellung statt.

IoT-Geräte, von intelligenten Sensoren bis hin zu tragbaren Technologien, sammeln Echtzeitdaten und übertragen sie über Netzwerke. Dieser ständige Informationsfluss ermöglicht es Unternehmen, Vermögenswerte zu überwachen, Lieferketten zu optimieren und die Produktleistung zu verbessern. IoT  bezieht sich auf ein Netzwerk physischer Objekte oder "Dinge", die mit Sensoren, Software und Konnektivitätsfunktionen ausgestattet sind und es ihnen ermöglichen, Daten über das Internet zu sammeln und mit anderen Geräten und Systemen auszutauschen. Bei diesen Objekten kann es sich um Alltagsgegenstände, Geräte, Maschinen, Fahrzeuge und sogar Menschen handeln, die alle über die Fähigkeit verfügen, ohne direktes menschliches Eingreifen zu kommunizieren und Informationen auszutauschen.

 

Künstliche Intelligenz KI (Artificial Intelligence - AI)

Künstliche Intelligenz (KI) - Artificial Inteligence (AI) strebt das Erreichen oder sogar Übertreffen der Intelligenz eines Menschen an. Dinge, die oft mit Intelligenz in Verbindung gebracht werden, wie etwa Rechnen, Schach spielen oder sich grosse Datenmengen merken, können vom Computer schneller und besser erledigt werden.

KI kann selbständig Aufgaben lösen, ohne speziell dafür programmiert zu werden. 

KI wird mit jeder neuen Aufgabe besser.

KI-Systeme werden leistungsfähiger, sie werden in der Lage sein, mit Menschen zusammenzuarbeiten, um eine Vielzahl von Problemen zu lösen, die wir derzeit nicht lösen können.

Der Einsatz von KI nimmt rasant zu und es ist klar, dass diese Technologie das Potenzial hat, viele Aspekte unseres Lebens zu revolutionieren. Es muss sichergestellt werden, dass KI verantwortungsvoll und ethisch eingesetzt wird, damit sie der gesamten Menschheit zugute kommt.

KI hat die Art und Weise, wie wir Daten verarbeiten und nutzen, revolutioniert. Algorithmen für maschinelles Lernen können riesige Datensätze analysieren, verborgene Muster aufdecken und Vorhersagen mit bemerkenswerter Genauigkeit treffen. Im Geschäftskontext unterstützt KI alles, von personalisierten Kundenerlebnissen bis hin zur vorausschauenden Wartung, und macht den Betrieb effizienter und kostengünstiger.

Trotz jahrzehntelange Forschung steht aber die Entwicklung der KI noch relativ am Anfang. Damit sie in sensiblen Bereichen wie dem automatisierten Fahren oder der Medizin eingesetzt werden kann, muss sie zuverlässiger und sicherer gegen Manipulationen werden.

Aktuelle leistungsstarke Prozessoren und Grafikkarten in Computern, Smartphones und Tablets ermöglichen es normalen Verbrauchern auf KI-Programme zuzugreifen.

Immer mehr KI-generierte Inhalte (Texte, Bilder, Audio) landen im Internet, aber die Qualität dieser sinkt immer weiter (MAD-Krankheit). Es muss also gegengesteuert werden, um die KI nicht weiter degenerieren zu lassen.

Es gibt Bestrebungen die KI sicherer und verantwortungsvoller zu machen, so haben Microsoft, Anthropic, Google und OpenAI das Frontier Model Forum ins Leben gerufen, einen Branchenverband, der sich auf die Gewährleistung einer sicheren und verantwortungsvollen Entwicklung von Frontier-KI-Modellen konzentriert.

Mit LLMs und einer Technologie namens Diffusion AI können Systeme jetzt andere Fähigkeiten erreichen oder übertreffen, die wir oft mit Intelligenz assoziieren, wie zum Beispiel: Präzise auf Spracheingaben reagieren und neue Textinhalte erstellen, Schreiben origineller Geschichten und Gedichte, Analysieren von Inhalten auf Ton und Emotionen, Erstellen einzigartiger Bilder und Videos.

Trotz ihrer Fortschritte ist die KI aber nicht so gut wie der Mensch, wenn es um strategisches und kreatives Denken geht.

Es wird geschätzt, dass KI bis 2030 zwischen 10 und 15 Billionen $ zur Weltwirtschaft beitragen könnte. Es wird erwartet, dass der globale KI-Markt eine durchschnittlichen jährlichen Wachstumsrate von 36,2% ab 2022 haben wird.

Deutschland wird in KI 2024, 500 Millionen € investieren. Deutschland und Europa sollen in einer Welt "Powered by AI" eine Spitzenposition einnehmen und technologische KI-Souveränität erreichen. Das Bundesministerium für Bildung und Forschung (BMBF) betrachte die Bereitstellung von KI-Tools, KI-Kompetenzen und KI-Infrastruktur als Teil der Grundversorgung.

Fast jede Regierung, jedes große Unternehmen und jede Organisation auf der Welt arbeitet an einer KI-Strategie.

Wenn Unternehmen Innovationen mit KI der nächsten Generation einführen, stellen drei Kriterien den Erfolg sicher: technologische Machbarkeit, wirtschaftliche Machbarkeit und gesellschaftliche Werte. Zu den zukünftigen KI-Technologien gehören multimodale Systeme, KI-Rechtshilfe, humanoide Roboter und Forschungsunterstützung.

Meilensteine der KI Geschichte

Es wird behauptet, dass der Mechanismus zur Erzeugung von "Ars generalis ultima" (Die ultimative allgemeine Kunst), veröffentlicht von Ramon Llull im Jahr 1308, eine künstliche Intelligenz mit mechanischen Mitteln war, um aus Logik und Logik neues Wissen zu schaffen komplexe mechanische Techniken.

Im Jahr 1914 stellte der spanische Ingenieur Leonardo Torres y Quevedo in Paris die erste Schachspielmaschine vor, die in der Lage war, Informationen über eine Schachpartie zu empfangen und von jeder Position aus ohne menschliches Eingreifen ein König-Turm-Endspiel gegen den König zu spielen.

Norbert Wiener veröffentlichte das Buch "Cybernetics or Control and Communication in the Animal and the Machine(1948), das großen Einfluss auf die Erforschung von KI und Steuerungssysteme hat.

Im Jahr 1950 veröffentlichte Alan Turing "Computing Machinery and Intelligence" und führte damit das Konzept des Nachahmungsspiels ein. Dies wurde später als Turing-Test bekannt, der die Fähigkeit einer Maschine testet, ein Verhalten zu zeigen und Ergebnisse zu erzeugen, die nicht von dem einer erwachsenen Person zu unterscheiden sind.

Alan Turing's Turing-Test (1950) ist ein berühmter Test, der die Frage stellte: "Können Maschinen denken?"

Der Programmierer John McCarthy schlägt 1956 den Begriff "Künstliche Intelligenz" vor.

Das robinsonische Auflösungsprinzip (1965) ermöglicht einen automatisierten Theorehmbeweis.

Die Jahre von 1956 bis 1974 gelten als Renaissance der künstlichen Intelligenz mit Entwicklungen wie semantischen Netzen, die es Maschinen ermöglichten, algebraische Wortprobleme zu lösen, und Suchalgorithmen, die es Maschinen ermöglichten, Probleme ähnlich wie ein Labyrinth zu lösen.

Ein Pionier der KI war der Multigenie Marvin Minsky.

"SHRDLU" war ein frühes Computerprogramm zum Verständnis natürlicher Sprache, das von Terry Winogradam (MIT) in den Jahren 1968–1970 entwickelt wurde.In dem Programm führt der Benutzer ein Gespräch mit dem Computer, bewegt Objekte, benennt Sammlungen und fragt den Status einer vereinfachten "Blockwelt" ab, im Wesentlichen einer virtuellen Box, die mit verschiedenen Blöcken gefüllt ist.

Mit "MYCIN" (1972) findet Künstliche Intelligenz den Weg in die Praxis: Das von Ted Shortliffe an der Stanford University entwickelte Expertensystem wird zur Behandlung von Krankheiteneingesetzt. Als Expertensystem wird ein  Softwaresystem bezeichnet, wenn es in der Lage ist, Lösungen für Probleme aus einem begrenzten Fachgebiet            (Wissensdomäne) zu liefern, die von der Qualität her denen eines menschlichen Experten vergleichbar sind oder diese sogar übertreffen. In der Medizin dienen sie zur Unterstützung bei Diagnose und Therapie.

KI erlebte zwischen 1974 und 2011 eine Flaute und einen Aufschwung, in dem die Rechenleistung und die Menge der verfügbaren Daten erhebliche Engpässe darstellten. In diese Periode wurden Agenten wie Deep Blue und AlphaGo entwickelt die in der Lage waren, mit den besten menschlichen Brettspielspielern der Welt mitzuhalten und diese sogar zu übertreffen.

Im Equitable Center in Midtown Manhattan wurde ein brisantes  Schachspiel mit einem Preisgeld von 1,1 Millionen US-Dollar ausgetragen. Es war der 11. Mai 1997. Schachweltmeister Garry Kasparov, der bis heute als einer der größten Schachspieler aller Zeiten gilt, spielte gegen den Schachcomputer "Deep Blue". Die Maschine hat gegen ihn gewonnen.
Um 1997 gegen Kasparov zu gewinnen, nutzte Deep Blue seine schiere Rechenleistung, um ihn zu überwältigen: 100 bis 200 Millionen Schachzüge pro Sekunde.
 
Aber die heutigen Computerschach-Engines können Deep Blue mit zunehmender Rechenleistung und Programmiertechniken übertrumpfen weil sie von einer lernenden KI angetrieben sind, während Deep Blue sich hauptsächlich auf ein programmiertes Schachverständnis verlassen hatte.
 
Dieser Wendepunkt im Jahr 1997 festigte nicht nur IBMs Status als KI-Innovator, sondern führte auch zu einem Sprung nach vorne: dem Watson-Supercomputer, der maschinelles Lernen und die Verarbeitung natürlicher Sprache nutzte, um 2011 die Jeopardy-Champions Ken Jennings und Brad Ritter zu besiegen.
Die AlphaGo-Software von DeepMind, besiegte 2016 den Go-Weltmeister Lee Sedol. Das AlphaGo-Match wurde in seiner Bedeutung mit Kasparov vs. Deep Blue verglichen.
 
"HAL 9000" ist der fiktive KI gesteuerter Computer des Raumschiffs Discovery in den Film 2001: Odyssee im Weltraum (Buch: Arthur C. Clarke, Regie: Stanley Kubrick) in 2010, das Jahr, in dem wir Kontakt aufnehmen. Nachdem HAL 9000 herausgefunden hat, dass die Besatzung ihn abschalten will, falls sich die Irrtümlichkeit seiner Fehleranalyse bestätigen sollte, versucht er, die Besatzung auszuschalten, um seine Mission zum Jupiter fortführen zu können - "unbeirrbar und allein".

KI-Kategorien

  • Artificial Narrow Intelligence (ANI) oder schwache KI sind Systeme, die als die am wenigsten rechenleistungsstarke KI gelten. Diese Systeme umfassen viele der modernen Modelle des maschinellen Lernens und des Deep Learning mit einzelnen und eingeschränkten Funktionen wie Objektklassifizierung und Spracherkennung.
  •  Allgemeine Intelligenz (AGI) oder starke KI sind Systeme, die den Turing-Test bestehen würden, mit einer Intelligenz, die Ergebnisse erzeugt, die nicht von denen eines erwachsenen Menschen zu unterscheiden sind. Zum Zeitpunkt der Veröffentlichung wurde kein öffentlich bekanntes AGI entwickelt. Künstliche allgemeine Intelligenz (AGI) ermöglicht es Computern, flexibel wie Menschen zu lernen, zu handeln und zu denken. Trotz aller Fortschritte bleiben die heutigen KI-Systeme "schmal", was bedeutet, dass sie für bestimmte Aufgaben gut sind und für neue Dinge umprogrammiert werden müssen. AGI ermöglicht es Computern, flexibel wie Menschen zu lernen, zu handeln und zu denken. Trotz aller Fortschritte bleiben die heutigen KI-Systeme "schmal", was bedeutet, dass sie für bestimmte Aufgaben gut sind und für neue Dinge umprogrammiert werden müssen.
  • Artificial Super-Intelligenz (ASI) oder Superintelligenz ist eine weitere noch zu entwickelnde Form der KI, die Intelligenz enthält, die Ergebnisse erzeugen kann, die die Kapazität eines Menschen bei weitem übertreffen würden.

Liste von KI-Tools

  • ChatGPT
  • Bard
  • DALL-E 2
  • Regenbogen-KI
  • GuestLab
  • Hommage
  • Laxis
  • Quillbot
  • Midjourney
  • Stable Diffusion

Liste von AI Software

  • Google Cloud Machine Learning Engine (Maschinelles Lernen, Trainiert Modell anhand von Daten, Nicht kostenlos)
  • Azure Machine Learning Studio (maschinelles Lernen, browserbasiert, Modell wird als Webdienst bereitgestellt, kostenlos)
  • TensorFlow (Maschinelles Lernen, Desktops, Cluster, ist für alle vom Anfänger bis zum Experten, kostenlos)
  • H2O AI (Machine Learning, Distributed In-Memory, Programmierung, Sprachen: R & Python, AutoML-Funktionalität enthalten, kostenlos)
  • Cortana (Virtuelle Assistentin, alle Betriebssysteme, kostenlos) IBM Watson (Frage-Antwort-System, Linux, Es lernt viel aus kleinen Daten, kostenlos)
  • Salesforce Einstein (CRM-System, cloudbasiert, keine Notwendigkeit für die Verwaltung von Modellen und die Datenvorbereitung)
  • Infosys Nia (maschinelles Lernen, Chatbot, Betriebsysteme: Windows, Mac und webbasiert, bietet drei Komponenten, nämlich Datenplattform, Wissensplattform und Automatisierungsplattform)
  • Amazon Alexa (Virtueller Assistent, Betriebssysteme: Fire OS, iOS und Android, IT kann mit Geräten wie Kamera, Lichtern und Unterhaltungssystemen verbunden werden, kostenlos mit einigen Amazon-Geräten oder -Diensten)
  • Google Assistant (Virtueller Assistent, Betriebssystem: Android, iOS und KaiOS, unterstützt Zwei-Wege-Konversation, kostenlos)
  • Dante AI (Dieser Chatbot basiert auf GPT-4, dem fortschrittlichsten Sprachmodell von OpenAI, das über 100 verschiedene Sprachen erkennen kann, was es inklusiv und sprachfreundlich macht, Es wird angeboten über den Amazon Web Services)

Microsoft's Webbrowser Bing benutzt KI und GPT-4.

DeepL ist ein KI-Dolmetscher für immer mehr Sprachen.

Microsoft unter Satya Nadella hat das Projekt OpenAI ins Leben gerufen.

Large Language Models (LLMs) verändern das digitale Marketing. Google hat beispielsweise kürzlich die Integration von LLMs in seine Suchergebnisse als Reaktion auf den OpenAI/ChatGPT-basierten Bing Chat angekündigt.

Unter Generative AI versteht man die Verbindung von LLMs mit Technologien, die neben Textergebnissen auch digitale Inhalte wie Bilder, Videos, Musik oder Code generieren könnenEs wird erforscht, über digitale Inhalte hinauszugehen und diese Technologie für so unterschiedliche Dinge wie die Entdeckung neuer Moleküle und 3D-Designs zu nutzen. Die Modelle verfügen über eine generative Fähigkeit und waren der Beginn der generativen KI.

Generative KI  basiert also auf LLMs. LLMs werden auf Terabytes an Textdaten aus dem Internet trainiert. Diese Modelle sind in der Lage, komplexe Antworten auf hoher Ebene auf Eingabeaufforderungen in der menschlichen Sprache zu liefern. Im Fall von ChatGPT war ein Durchbruch die Entdeckung, dass mit etwas zusätzlichem Training die LLMs verwendet werden können, um beeindruckende textbasierte Ergebnisse zu erzielen. Generativer KI ermöglicht die Erstellung langspielbarer High-Fidelity-Musik aus Textbeschreibungen und zusätzlichen Toneingabebedingungen und kann Blogs erstellen, Anzeigentexte schreiben, neue Inhalte basierend auf Texteingaben erstellen und ist in der Lage, den Stil und Ton von Textinhalten zusammenzufassen und zu ändern. Generative KI bezieht sich auf eine Klasse von KI-Algorithmen die ohne direkten menschlichen Eingriff neue Inhalte wie Texte, Bilder oder Videos generieren können und komplexe Probleme zu lösen und sich wiederholende Aufgaben zu automatisieren. Da sich diese Technologie ständig weiterentwickelt, bietet sie eine vielversprechende Lösung für das uralte Dilemma, alltägliche, sich wiederholende Aufgaben mit hochwertigerer kognitiver Arbeit unter einen Hut zu bringen. Einer der bedeutendsten Vorteile der generativen KI ist ihre Effizienz bei der Bewältigung sich wiederholender und alltäglicher Aufgaben. Die Geschwindigkeit und Reichweite der Entwicklung der generativen KI ist absolut beispiellos. Es wurde mit der Einführung der Druckerpresse verglichen. Generative KI hat einen erheblichen Einfluss auf Wissensarbeit, Marketing und Vertrieb, sein volles Potenzial muss jedoch noch ausgeschöpft werden. Darüber hinaus verspricht die Technologie Effizienzsteigerungen bei der Softwareentwicklung. Die Beschleunigung des Einsatzes großer Sprachmodelle (LLMs) ist ein aufkommender Markttrend für generative KI. ChatGPT erreichte 100 Millionen Nutzer schneller als jede andere App. PGPT-3 wurde ursprünglich mit 45 Terabyte Daten trainiert. Das Ziel der generativen KI-gestützten Suche scheint darin zu bestehen, das genaueste Einzelergebnis und nicht eine Liste der Top-Websites bereitzustellen. Die generative KI-Suche ist sowohl für PPC als auch für SEO von entscheidender Bedeutung.         (--> siehe Bild am Ende dieser Webseite)

Anwendungen von Generative KI

Code
Unter generativem Coding versteht man den Einsatz generativer KI (GenAI) zur Unterstützung der Softwareentwicklung. Es war eine der ersten Anwendungen der generativen KI-Technologie, die kommerzialisiert wurde.
 
Bilder
GenAI kann aus vorhandenen Textaufforderungen und Bildern neue Bilder generieren. Aufgrund eines zufälligen Startwerts sind die generierten Bilder einzigartige Kreationen. GenAI verwendet Diffusionsmodelle, um diese neuen einzigartigen Bilder zu erstellen.
 
Musik
GenAI ermöglicht die Erstellung langspielbarer High-Fidelity-Musik aus Textbeschreibungen und zusätzlichen Toneingabebedingungen.
 
Text
Generative KI kann Blogs erstellen, Anzeigentexte schreiben, neue Inhalte basierend auf Texteingaben erstellen und ist in der Lage, den Stil und Ton von Textinhalten zusammenzufassen und zu ändern.

ChatGPT ist ein öffentlich verfügbarer webbasierter Chatbot und eine API-Schnittstelle, die von OpenAI erstellt wurde. Es stellt eine Verbindung zu einem großen Sprachmodell (LLM) namens GPT (Generative Pre-Trained Transformer) her.

ChatGPT sagt über sich selbst: "Ich wurde trainiert, um menschenänliche Konversation zu führen und Antworten auf Fragen zu geben, die auf natürliche Sprachen gestellt werden. Ich würde entwickelt, um als digitaler Assistent, Informationsquelle und Unterhaltungsmedium zu dienen."

ChatGPT demonstrierte die Fähigkeit, Text basierend auf Eingabeaufforderungen in natürlicher Sprache zu generieren. Mithilfe des Konzepts von Basismodellen können große Mengen vorab trainierter Daten mit einem geringen zusätzlichen Aufwand an Abstimmung und Eingabeaufforderung genutzt werden. Beim Tuning werden den Daten Beschriftungen hinzugefügt. Aufforderungen überbrücken die Lücke zwischen Training und Absicht.

ChatGPT hat das Internet mit der Chat-Vervollständigungs-funktion revolutioniertMan kann damit eine Menge tun: eine E-Mail oder ein anderes Schreiben verfassen, Fragen zu einer Reihe von Dokumenten beantworten, Konversationsagenten erstellen, einer Software eine Schnittstelle in natürlicher Sprache geben, Nachhilfe in verschiedenen Fächern geben, Sprachen übersetzen und so weiter. Eine CLI-Chat-App kann mit Node.js oder React  erstellt werden. Während es mehr als 50 Jahre dauerte, bis gedruckte Bücher in ganz Europa allgemein verfügbar waren, erreichte ChatGPT in nur zwei Monaten 100 Millionen Nutzer.

ChatGPT wird mithilfe großer Datenmengen aus dem Internet trainiert. LLMs unterscheiden sich jedoch in folgenden Punkten von Internet-Suchmaschinen: Keine laufenden täglichen Webcrawler und Updates. ChatGPT verwendet eine Art Feinabstimmung namens Reinforcement Learning from Human Feedback (RLHF). 
Der Durchbruch, der BERT- und ChatGPT-basierte Modelle ermöglichte, heißt Transformers und wurde in einem Artikel aus dem Jahr 2017 mit dem Titel "Aufmerksamkeit ist alles, was Sie brauchen" vorgestellt. Es wurde als eine Möglichkeit vorgestellt, eine maschinelle Übersetzung zu erstellen, aber eine viel schnellere parallele Ausführung zu ermöglichen. Außerdem wurde ein neues Konzept namens "Selbstaufmerksamkeit". Und Computer zu programmieren war so faszinierend.
Man erschafft sein kleines Universum, und dann tut es, was man der IT sagt." ( Vinton Cerf, US-amerikanischer Informatik-Ingenieur) eingeführt, um lange Sprachsequenzen besser zu verstehen. Es stellt Verbindungen zwischen verschiedenen Teilen der Sequenz her. Es stellt Verbindungen zwischen verschiedenen Teilen der Sequenz her. Es gibt Nutzungsszenarien, die einige von Menschen geleistete Arbeit reduzieren oder ersetzen können. Diese beinhalten: Texte verarbeiten und zusammenfassen, von Menschen erstellte Inhalte filtern, Erstellen fortgeschrittener Chatbots Codes, g
enerieren gestalteter Dokumente (z. B. Lebensläufe, Vorschläge, E-Mails).

GPT umfasst einige der größten Modelle, die jemals erstellt wurden. Nach dem Modelltraining erfolgt eine weitere Feinabstimmung, um die generierte Reaktion zu verbessern.

Das T in GPT steht für Transformer. Transformer sind künstliche neuronale Netze mit einer besonderen Architektur. Sie wird von grossen Sprachmodellen wie ChatGPT verwendet, wurde in 2017 von Forschern bei Google entwickelt und führte damals zu Spitzenleistungen bei der Sprachübersetzung. Interessanterweise ist dieses Modell in leicht abgewandelter Form aber eigentlich schon 1991 von dem KI-​Pioneer Jürgen Schmidhuber erfunden worden. Vor dem aktuellen Durchbruch von der Transformer-​Architektur wurden für Aufgaben wie zum Beispiel das Klassifizieren von Bildern oder der Sprachübersetzung jeweils spezifische, für eine bestimmte Aufgabe entwickelte Netzwerk-​Architekturen verwendet.

Man kann einem Sprachmodell wie ChatGPT zum Beispiel mehrere kurze Texte geben und jeweils angeben, ob die Texte grundsätzlich eine positive oder negative Grundstimmung haben. Dann legt man dem Modell einen Text vor, den er noch nicht gesehen hat, und es wird anhand der Beispiele, die Sie dem Modell gegeben haben, ziemlich sicher lernen und beurteilen, ob der neue Text positiv oder negativ ist. Alles, was diese Modelle erhalten, ist eine kurze Texteingabe. Die  Transformer nutzen diese wenigen Informationen, um ihr Ergebnis zu optimieren.

DALL-E kann Bilder erzeugen. GPT-Neo ist ein vielversprechendes Open-Source-LLM.

GPT-​3das Modell hinter ChatGPT, hat 175 Milliarden Parameter. Da das Modell auf einem Computer läuft, ist man in der Lage, jedes Neuron und jede Verbindung in dem neuronalen Netzwerk aufzuzeichnen - etwas, das bei der Untersuchung des biologischen Gehirns von Tieren oder Menschen undenkbar wäre.

Amazon setzt sich seit langem für KI und ML ein und unterstützt über 100.000 Kunden, darunter auch Hersteller, die sich jetzt mit generativer KI beschäftigen. Generative KI kann die Fertigung optimieren.

Mithilfe der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) können soziale Risikofaktoren in elektronischen Krankenakten, die häufig nicht standardisiert sind, effektiv identifiziert werden. Diese Innovation ermöglicht es Gesundheitsdienstleistern, die umfassenderen Lebensumstände zu berücksichtigen, die sich auf die Gesundheit der Patienten auswirken, was zu einer individuelleren und möglicherweise kosteneffektiveren Versorgung führt. Das NLP-System zeigte in einem anderen geografischen Umfeld eine starke Leistung, was seine Anpassungsfähigkeit unterstreicht.

In der Software-Engineering wird KI immer häufiger eingesetzt und kann Entwicklern dabei helfen, die Generierung und Umgestaltung von Code und die Dokumentation um 20 bis 50% zu beschleunigen (McKinsey-Bericht).

Unter generativem Coding versteht man den Einsatz generativer KI zur Unterstützung der Softwareentwicklung. Es war eine der ersten Anwendungen der generativen KI-Technologie, die kommerzialisiert wurde.

Generative KI, GPT-Engineer, ChatGPT und große Sprachmodelle (LLMs) wie GitHub Copilot und andere KI-Codegenerierungstools verändern die Softwareentwicklungspraktiken und die Produktivität. 

LISP wurde zu einer gemeinsamen Sprache für die Programmierung von KI. 

Code Llama (Code Large Language Model Meta AIist ein KI-System, das Code auf Englisch generiert und erklärt. Ähnlich wie GitHub Copilot und Amazon CodeWhisperer unterstützt Code Llama Entwickler beim Codieren und Debuggen in verschiedenen Sprachen wie Python, Java und C++Es bestehen jedoch Bedenken, da KI-Codierungstools Sicherheitslücken schaffen oder geistiges Eigentum verletzen können. Entwickler nutzen immer häufiger kontinuierliche Tests mit generativen KI.

Llama steht für Large Language Model Meta AI. Es handelt sich hierbei um ein auto-regressives großes Sprachmodell, das eine optimierte Transformerarchitektur verwendet. Es ist das zweite Foundational Model aus dem Hause Meta AI, das im Jahr 2023 erschienen ist. Schon die erste Version von Llama, die Ende Februar 2023 veröffentlicht wurde, war quelloffen. Llama 2 ist nun nicht nur vollständig open-source, sondern auch noch kommerziell verwendbar. Das eröffnet viele neue Möglichkeiten, denn so können verschiedenste Anwendungen auf der Llama-Architektur aufgebaut werden. Llama 2 gibt es in verschiedenen Größen mit 7, 13, 34 oder 70 Milliarden Parametern. Trainiert wurde auf 2 Trillionen Token mit über einer Millionen menschlicher Annotationen.

Ein künstliches neuronales Netz (KNN - Artificial Neural Network ANN) ist ein System aus Hardware und/oder Software, das der Funktionsweise von Neuronen im menschlichen Gehirn nachgebildet ist. KNNs, auch einfach neuronale Netze genannt, sind eine Vielzahl von Deep-Learning-Technologien, die unter den Begriff der KI fallen.

Ob aktuelle oder zukünftige KI-Systeme bewusst sein könnten, ist ein Thema von wissenschaftlichem Interesse und zunehmender öffentlicher Besorgnis. Aus prominente wissenschaftliche Bewusstseinstheorien, darunter die Theorie der wiederkehrenden Verarbeitung, die Theorie des glob inalen Arbeitsbereichs, Theorien höherer Ordnung, prädiktive Verarbeitung und die Theorie des Aufmerksamkeits Schemas kann man "Indikatoreigenschaften" des Bewusstseins ableiten, die  ermöglichen, KI-Systeme auf diese Eigenschaften hin zu bewerten. Diese Indikatoreigenschaften legen nahe, dass derzeit keine KI-Systeme bewusst sind, deutet aber auch darauf hin, dass es keine offensichtlichen technischen Hindernisse für den Aufbau von KI-Systemen gibt, die diese Indikatoren erfüllen.

Natural Language Processing (NLP) ist ein Zweig der Informatik - und insbesondere ein Bereich der KI. Es stützt sich vornehmlich auf uns und unsere Realität, und vor allem auf unser wichtigstes Kommunikationsmittel: Die Sprache. Anschließend verknüpft es sie mit Statistik, Machine und Deep Learning. Durch die Kombination von Linguistik und Informatik, ist es das Ziel von NLP, Sprachstrukturen- und -richtlinien zu entschlüsseln. Damit will es Modelle erstellen, die wichtige Details aus Texten und Sprache verstehen, aufschlüsseln und trennen können. Es geht also darum, Computer in die Lage zu versetzen, Texte und gesprochene Worte in ähnlicher Weise wie Menschen zu verstehen. 

Kontextuelle KI ermöglicht es Unternehmen, das wahre Potenzial der KI auszuschöpfen, indem sie Sprachmodelle in ihren internen Wissensdatenbanken und Datenquellen verankern. Kontextuelle Sprachmodelle (Contextual Language Models - CLMs) basieren auf Google Cloud und erstellen Antworten, die auf die Daten und das institutionelle Wissen eines Unternehmens zugeschnitten sind. Dies führt zu höherer Genauigkeit, besserer Compliance, weniger Halluzinationen und der Möglichkeit, Antworten auf Quelldokumente zurückzuführen.

Könnte auch sein, dass Verhaltensweisen auftauchen, die für die Informatik völlig neu sind. ETH-​Forscher haben eine neue Programmiersprache namens LMQL (Language Model Query Language) entwickelt. Durch die Kombination von natürlicher Sprache und Programmiersprache können gezieltere Anfragen an grosse Sprachmodelle, wie ChatGPT, gestellt werden. Die neue Programmiersprache ermöglicht es, den Nutzenden Sicherheitseinschränkungen zu formulieren, um unerwünschte Ergebnisse möglichst zu vermeiden.

Azure AI Speech ist ein Speech-Dienst von Microsoft und bietet mit einer Speech-Ressource Funktionen für die Spracherkennung und Sprachsynthese. Sie können Sprache mit hoher Genauigkeit in Text transkribieren, Text in natürlich klingende Sprache konvertieren, gesprochene Audiodaten übersetzen und bei Konversationen die Sprechererkennung verwenden.

Der genetische Algorithmus (GA) ist die Methode zur Lösung von Problemen, indem Beispiele natürlicher Prozesse, insbesondere natürlicher Evolution, wie Mutation, Vererbung, Selektion und Kreuzung herangezogen werden. GA sind von Darwins Evolutionstheorie inspiriert. GA wurde in den 1970er Jahren von John Holland an der University of Michigan in den USA erfunden und nicht nur von ihm und seinen Studenten, sondern auch von seinen Kollegen weiterentwickelt.

Der Welt der wissenschaftlichen Innovation hat die Konvergenz von Biologie und Technologie zu einem faszinierenden Konzept geführt: der organoiden Intelligenz. Diese revolutionäre Fusion beinhaltet die methodische Umwandlung von Stammzellen in komplexe organähnliche Strukturen, die als Organoide bezeichnet werden. Diese aufwendig gestalteten Organoide bilden die Funktionen tatsächlicher Organe originalgetreu nach und läuten eine neue Ära der Möglichkeiten ein. Wissenschaftler können Organoide verwenden, um Krankheiten zu untersuchen, Medikamente zu testen und Organe wie Gehirn, Leber und Nieren zu modellieren. Organoide könnten möglicherweise in KI integriert werden, um eine menschenähnlichere künstliche Intelligenz zu schaffen. Zu den wichtigsten Highlights der organoiden Intelligenz gehören: Organoide können als humanrelevante Krankheitsmodelle Forschung und Arzneimitteltests beschleunigen. Die Integration von Organoiden mit KI könnte eine menschenähnlichere künstliche Intelligenz ermöglichen. Obwohl Organoide vielversprechend sind, werfen sie ethische Fragen wie die Zuweisung von Bewusstsein und Rechten auf.

Im Bereich der Cybersicherheit hat das Katz-und-Maus-Spiel zwischen Hackern und Verteidigern mit dem Aufkommen der KI-Technologie eine neue Wendung genommen. Hacker, immer auf der Suche nach effizienteren und effektiveren Möglichkeiten, die Sicherheit zu durchbrechen, haben die Macht der KI genutzt, um Passwörter auf beispiellose Weise zu knacken.

Es gibt fünf Strategien, die Hacker neulich anwenden:

  • Intelligente Brute-Force-Angriffe
  • Passwortvorhersagemodelle
  • KI-gestützte Wörterbuchangriffe
  • Auf maschinellem Lernen (ML) basierende Angriffe
  • Hybride Angriffe

Heutzutage ist Cybersicherheit eine milliardenschwere Branche mit einer ständig wachsenden Liste von Unternehmen, die sich auf die Entwicklung und Implementierung von Cybersicherheitslösungen spezialisiert haben. Von Firewalls bis hin zu Verschlüsselung sind diese Lösungen darauf ausgelegt, sowohl Einzelpersonen als auch Unternehmen vor der sich ständig weiterentwickelnden Bedrohung durch Cyberkriminalität zu schützen. Einer der größten Trends in der Cybersicherheit ist die Integration von künstlicher Intelligenz (KI) und maschinellem Lernen (ML). Diese Technologien haben das Potenzial, unsere Herangehensweise an Cybersicherheit zu revolutionieren, indem sie es uns ermöglichen, riesige Datenmengen zu analysieren und Bedrohungen in Echtzeit zu identifizieren. Mithilfe von Algorithmen für ML können beispielsweise Anomalien im Netzwerkverkehr erkannt, potenzielle Angriffe identifiziert und darauf reagiert werden, bevor sie erheblichen Schaden anrichten können. KI und ML können auch zur Analyse großer Datenmengen eingesetzt werden und dabei helfen, Muster und Trends zu erkennen, die auf einen Cyberangriff hinweisen können.

Neulich wird statt Artificial Intelligence immer häufiger der Begriff Augmented Intelligence verwendet.

Künstliche Intelligenz der Dinge (AIoT) ist die Kombination von Technologien der KI) und dem Internet der Dinge (IoT).

Anwendungen von KI

Es gibt Nutzungsszenarien von KI, die einige von Menschen geleistete Arbeit reduzieren oder ersetzen können:

  • Texte verarbeiten und zusammenfassen
  • Von Menschen erstellte Inhalte filtern
  • Erstellen fortgeschrittener Chatbots
  • Code schreiben
  • Kundendienst und Support
  • Generieren gestalteter Dokumente (z. B. Lebensläufe, Vorschläge, E-Mails)

Medizin

KI wird eingesetzt in der Prävention (z.B. Smarte Wearables), bei Screening (Erkennen von Auffälligkeiten auf einem Röntgen-Bild, Erkennen von Parkinson durch die Analyse von Augenetzhaut Bilder), bei der Diagnostik, bei der Therapie (Roboterassistierte Operationen), bei der Nachsorge, und um neue Medikamente bereitzustellen. Mithilfe von KI können auch virtuelle Assistenten geschaffen werden, die Patienten informieren und ihnen helfen können.

Finanzen und Bankwesen

KI wird derzeit eingesetzt, um Betrug zu erkennen, Risiken zu kontrollieren und Anlageberatung anzubieten. Mithilfe von KI-gestützten Algorithmen können beispielsweise Finanzdaten untersucht und Trends erkannt werden, die auf Betrug hinweisen können. KI kann auch zur Entwicklung von Handelstechniken eingesetzt werden, die die Entscheidungsfindung von Anlegern unterstützen.

Bildungswesen

KI verändert die Bildungslandschaft rasant: sie hat das Potenzial, das Lernen zu personalisieren, die Bewertung zu verbessern und Aufgaben zu automatisieren, sodass Lehrer mehr Zeit haben, sich auf kreativere und strategischere Arbeit zu konzentrieren. KI wird also eingesetzt bei personalisiertes Lernen, bei der Intelligenten Content-Erstellung, bei Intelligente Bewertungssysteme, bei virtuellen Klassenzimmer und virtuelle Realität, bei Intelligente Systeme zur Studierendenunterstützung und bei ethische Überlegungen und Herausforderungen.

Logistik

Dateneingabe und Kundenservice sind zwei Beispiele für Aufgaben, die mithilfe von KI automatisiert werden. KI kann bei der Schaffung neuer Waren und Dienstleistungen eingesetzt werden. Mithilfe von KI lassen sich beispielsweise selbstfahrende Autos konstruieren oder Vorschläge für Kunden personalisieren.

Unterhaltung

KI wird genutzt, um neue Formen der Unterhaltung zu entwickeln, darunterChatbots und Virtual-Reality-Spiele. KI kann auch genutzt werden, um die Qualität aktuell verfügbarer Unterhaltung zu verbessern, indem beispielsweise überzeugendere spektakuläre Effekte oder interessante Handlungsstränge erzeugt werden.

Sport und Fitness

KI wird genutzt, um individuellere Fitnesserlebnisse und neue Sporttrainingstools anzubieten. Beispielsweise können Trainer, die KI einsetzen, den Spielern sofortiges Feedback geben, um ihnen zu besseren Leistungen zu verhelfen. Mit KI können auch Virtual-Reality-Spiele erstellt werden, die zum Training oder zum Spaß gespielt werden können.

Selbstverbesserung

Mithilfe von KI werden Tools entwickelt, die Menschen dabei helfen können, ihr Leben zu verbessern. KI-gestützte Tools können beispielsweise verwendet werden, um den Zielfortschritt zu überwachen, Ermutigung zu geben und Orientierung zu geben. Mithilfe von KI können personalisierte Lernerlebnisse geschaffen werden, die den Erwerb neuer Fähigkeiten unterstützen.

Außerdem gibt es Nutzungsszenarien von KI, die einige von Menschen geleistete Arbeit reduzieren oder ersetzen können wie z.B.:

  • Texte verarbeiten und zusammenfassen
  • Von Menschen erstellte Inhalte filtern
  • Erstellen fortgeschrittener Chatbots
  • Code schreiben
  • Kundendienst und Support
  • Generieren gestalteter Dokumente (z. B. Lebensläufe, Vorschläge, E-Mails)

Weitere aktuelle oder geplante Einsätze von KI

  • Industrie 4.0
  • Software-Codierung, Dokumentation und Testautomatisierung
  • Kognitive Modellierung und logische Programmierung
  • Generierung von Text, Bilder und Videos im Internet
  • Erkennung und Verarbeitung von Bilder
  • Erkennung von natürlicher Sprache und deren Übersetzung
  • Maschinelles Lernen, Mustererkennung
  • Expertensysteme, Frage-Antwort Systeme, Chatbots
  • Schach-Computer programmieren
  • Web-Suchmaschinen (z.B. Google, MS Bing)
  • Assistiertes Fahren und Navigation
  • Künstliche Neuronale Netze und Deep Learning
  • Intelligente Roboter
  • Bildung
  • Wissensdarstellung
  • Wissenschaft und Forschung (z.B. CERN)
  • Raumfahrt (z.B. Curiosity Mars Rover)
  • Computerspiele (Videogames)
  • Computer Vision
  • Zukünftige Smartphones

 

Maschinelles Lernen (ML - Deap Learning)

ML ist ein Teilbereich der KI und bezeichnet das Lernen von IT-Systeme, um Daten und Muster zu verbessern, anstatt explizit programmiert zu werden. 

ML kann in das Gesundheitswesen, die Industrie 4.0 und das autonome Fahren (selbstfahrende Fahrzeuge) eingesetzt werden.

Aza Raskin, ein bekannter Designer von Computer-Benutzeroberflächen, hatte 2013 die Idee, mit Big-Data-Methoden Tiersprachen zu analysieren.

 

Data Mining

Data Mining ist die systematische Anwendung computergestützter Methoden, um in vorhandenen Datenbeständen Muster, Trends oder Zusammenhänge zu finden.

Zur Wissensentdeckung eingesetzte Algorithmen basieren unter anderem auf statistischen Methoden.

 

Quantencomputer

Quantencomputer basieren auf einem anderen Prinzip als konventioneller Rechner, sie nutzen die Gesetze der Quantenphysik.

Für einen Quantencomputer braucht man Rechen- und Speichereinheiten. Diese sogenannten Qubits sind das quantenmechanische Equivalent zu den Bits herkömmlicher Rechner.

Bits können genau einen von zwei möglichen Zuständen einnehmen, im Binärsystem entweder Null oder Eins. Das Qubit kann sich dagegen für eine bestimmte Zeitspanne, die sogenannte Kohärenzzeit, in einem Zwischenzustand aus Null und Eins befinden. Dieser Zustand wird auch Superposition (Quantenverschränkung) genannt. Durch eine Messung geht das Qubit dann in einen der beiden klar definierten Zustände über, sodass man das Messergebnis in einem "klassischen" Bit speichern kann. Dieser Verlust der Superposition wird Dekohärenz genannt. 

Die Recheneinheit eines Quantencomputers ist also der Qubit. 2021 wurden 127, 2022 sogar 433 Qubits erreicht. Entscheidend ist jedoch nicht nur die Quantität der Qubits, sondern vor allem deren Qualität, sprich, die Verschränkungen der Qubits und die Kohärenzzeit, die das Quantensystem stabil bleibt, um zu rechnen - sonst geht die Information in einem Rauschen verloren.

Ein Quantencomputer kann im Gegensatz zu einem klassischen digitalen Computer mehrere Aufgaben parallel lösen (inhärente Parallelverarbeitung). Dadurch ist er besser geeignet für die Lösung bestimmter Klassen von Problemen und kann diese viel schneller lösen als ein konventioneller Supercomputer.

Quantencomputer werden trotzdem digitale Rechner nicht verdrängen können (zu teuer), sondern werden mit diese koexistieren. Erste kleinere kommerzielle Quantencomputer sind aber schon im Einsatz.

Quantencomputer werden entwickelt von OpenAI, Microsoft, Google, Nvidia, IBM, Amazon, D-Wave, in China, aber auch deutsche Unternehmen beteiligen sich an Quantencomputer-Entwicklungsprojekte. Im Forschungszentrum Jülich in Deutschland steht einer der leistungsstärksten Quantencomputer der Welt. 

Beispiele für das Einsatzgebiet von Quantencomputer sind Optimierungsaufgaben, Simulationen, maschinelle Lernverfahren und Quantenkryptografie.

Bündelung KI - Quantencomputing - Blockchain

Es gibt Bestrebungen, die KI mit dem Quantencomputing zu verbinden. Die ohnehin riesigen Potenziale dieser beiden IT-Spitzentechnologien werden noch weiter verstärkt und so ihre Einsatzmöglichkeiten noch weiter erweitert.

Einige Experten gehen davon aus, dass die Verschmelzung von Quantencomputing und KI exponentielle Fortschritte ermöglichen könnte. Wenn KI-Algorithmen auf Quantencomputern laufen könnten, wäre die Fähigkeit, riesige Mengen an heterogenen Daten schnell zu analysieren, ein gewaltiger Sprung nach vorn.

Das vom Forschungszentrum Jülich koordinierte Projekt Q(AI)2 bringt nun Quantencomputing und KI anhand konkreter Anwendungsfälle in der Automobilindustrie zusammen.
An dem Projekt sind die drei größten deutschen Automobilhersteller BMW, Mercedes-Benz und Volkswagen sowie der Zulieferer Bosch und das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) beteiligt. Das Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert und verfügt über ein Budget von 4 Millionen Euro über einen Zeitraum von drei Jahren.

Quantencomputing verspricht nicht nur massive Geschwindigkeitssteigerungen, sondern auch völlig neue Anwendungsbereiche. Die Synergie zwischen Quantencomputing und KI hat das Potenzial, viele Branchen grundlegend zu verändern. So könnte Quantensimulation ideal für Klimamodelle sein, um Wetterereignisse auf Basis von Millionen von Variablen vorherzusagen.

In der wissenschaftlichen Forschung könnten Quantensimulationen dazu verwendet werden, molekulare Verhaltensmodelle zu entwickeln. Damit könnten Forscher schneller Prototypen testen und entwickeln.

In einem solchen Kontext werden KI und Quantencomputing ein leistungsfähiges Duo bilden, um komplexe Herausforderungen wie den Klimawandel und Gesundheitsprobleme zu bewältigen. Aber auch in der Lieferkettensteuerung, im Finanzmanagement und bei Optimierungsproblemen können sie hilfreich sein.

Auch wenn die Vorteile verlockend sind, ist Vorsicht geboten rasante Entwicklung in beiden Technologiebereichen wirft auch Fragen bezüglich Governance, Standardisierung und Ethik auf

Die Technologie ist faszinierend, aber es ist wichtig, sie im Kontext dessen zu sehen, was mit der klassischen Informatik heute nicht machbar ist: Quantencomputer werden nicht alles lösen können und werden klassische Computer nicht vollständig ersetzen.Man benötigt Hybridarchitekturen und schließlich eine Quantenverarbeitungseinheit neben der Zentraleinheit und der Grafikverarbeitungseinheit in Computern.

Die Quantenrevolution entfaltet sich gerade.  Es war vor wenigen Jahren noch ein wissenschaftlicher Traum, aber heute wird es immer realer und greifbarer. Die Marktchancen sind enorm!

Bis zum Jahr 2030 könnten wir den Beginn einer Ära erleben, in der Quantencomputer in Kombination mit künstlicher Intelligenz nicht mehr nur Teil der wissenschaftlichen Diskussion sind, sondern auch greifbare Werkzeuge für Industrie und Forschung darstellen sowie Menschen in vielen Bereichen ersetzen

Führende Organisationen wie der Europäische Quantenindustrieverband (QuIC) arbeiten bereits an einer branchenübergreifenden Bildung und an der Entwicklung von Standards, um diesen Übergang zu erleichtern.

Die Integration von KI in die Blockchain-Technologie könnte eine weitere bahnbrechende Kombination sein

Beide könnten sich in einer Weise ergänzen, die das Beste aus beiden Welten hervorbringt.

So haben sich kürzlich Aptos und Microsoft zusammengeschlossen, um einen auf ChatGPT basierenden KI-Bot zu erschaffen. 

Zudem kann laut IBM durch die Symbiose von KI und Blockchain die Herkunft der Daten verifiziert werden. Somit soll das Vertrauen in die Datenintegrität und die KI verbessert werden. Damit soll die Blockchain der KI besser verwertbare Erkenntnisse bereitstellen. 

In der Gesundheitsbranche können KI und Blockchain eine verbesserte Patientenversorgung und Datenschutz durch sichere, gemeinsame Nutzung von Patientendaten ermöglichen. In der pharmazeutischen Industrie verbessern sie Transparenz und Erfolg von klinischen Studien durch intelligente Datenanalyse und dezentrale Organisation. Im Finanzsektor und der Lieferkette ermöglichen sie schnellere Transaktionen und höhere Effizienz. Zudem bieten sie gleichzeitig neue Möglichkeiten für Transparenz , Sicherheit und Nachhaltigkeit.

Die Verbindung von Quantencomputing, KI und Blockchain ist mehr als nur eine interessante wissenschaftliche Idee, sie könnte die nächste große technologische Revolution sein. Doch während die Vorteile und Potenziale enorm sind, bleiben Herausforderungen in Bezug auf Hardware, Ethik und Zugänglichkeit.

 

Neuere Trends in der Softwareentwicklung

Die Sprachen Rust, Go und Kotlin werden weiterentwickelt und immer häufiger eingesetzt. Die Erstellung von mobilen Apps mit Python und JavaScript spielt eine immer größere Rolle wie auch die Softwareentwicklung in einer Cloud-Umgebung. Auch das Edge-Computing ist auf der Vormarsch.

Es werden verstärkt Native Apps entwickelt.Um Apps mit der größten Flexibilität und der besten Leistung zu erstellen, entscheiden sich Software-Entwicklungsteams für die native App-Entwicklung, d. h. die Erstellung von zwei oder mehr separaten Versionen einer App für jedes wichtige mobile Betriebssystem (OS).

Die Agile Softwareentwicklung, die Testautomatisierung, das Continous Integration, das Continous Delivery,  DevOps und Microservices werden verstärkt eingesetzt. (--> Details siehe auf der Webseite Software)

Low-Code/No-Code-Entwicklung (LCNC)Der Bedarf an Software-Ingenieuren ist größer als deren Verfügbarkeit, so dass die LCNC-Programmierung ein Muss für Unternehmen ist. Diese Art von Software ermöglicht es auch Personen ohne Entwicklungsausbildung, Datenbanken und andere Anwendungen zur Unterstützung agiler Abläufe zu erstellen. Diese Fähigkeit wird mit Plattformen wie bubble.io immer alltäglicher und wird in der Zukunft weiter zunehmen.

Progressive Web-Apps (PWAs) vereinen die Vorteile von Websites und mobilen Apps, um Nutzern ein optimiertes Erlebnis zu bieten, ohne dass Unternehmen separate mobile Apps für bestimmte Betriebssysteme entwickeln müssen. Sie werden mit Sprachen wie JavaScript, CSS und HTML erstellt und können auf jeder Plattform, die einen Webbrowser verwendet, eingesetzt werden. Die PWA-Entwicklung wird in Zukunft wahrscheinlich zunehmen.

Die Benutzerfreundlichkeit (User Experience, UX) spielt eine immer bedeutendere Rolle.

Code-as-a-Service (Caras) wird die Nutzung von Platform-as-a-Service und Infrastructure-as-a-Service - und damit von Cloud Computing - beschleunigen. CaaS wird dem ständig wachsenden Bedarf an universeller Entwicklung gerecht und bietet außerdem integrierte Module für künstliche Intelligenz, maschinelles Lernen, Internet der Dinge und Blockchain, die Entwicklern einen einfachen Zugang zu diesen gefragten Technologien ermöglichen.

Software-as-a-Service (SaaS) ist der aktuelle Trend bei der Softwarenutzung. Bei diesem Cloud-basierten Modell können Endnutzer online auf die Software zugreifen, ohne sie herunterladen oder aktualisieren zu müssen - der Anbieter ist für das Hosting und die Wartung verantwortlich. 

Security wird in der Softwareentwicklung immer wichtiger, da Unternehmer immer mehr Software einsetzen und so auch die Anzahl der Cyber-Attacken wächst (--> Details siehe auf der Webseite Software und oben beim Thema KI).

In der Software-Entwicklung wird KI immer häufiger eingesetzt und kann Entwicklern dabei helfen, die Generierung und Umgestaltung von Code und die Dokumentation um 20 bis 50% zu beschleunigen.

Generative KI, GPT-Engineer, ChatGPT und große Sprachmodelle (LLMs) wie GitHub Copilot und andere KI-Codegenerierungstools verändern die Softwareentwicklungspraktiken und die Produktivität.

LISP wurde zu einer gemeinsamen Sprache für die Programmierung von KI. 

Code Llama ist ein KI-System, das Code auf Englisch generiert und erklärt. Ähnlich wie GitHub Copilot und Amazon CodeWhisperer unterstützt Code Llama Entwickler beim Codieren und Debuggen in verschiedenen Sprachen wie Python, Java und C++. Es bestehen jedoch Bedenken, da KI-Codierungstools Sicherheitslücken schaffen oder geistiges Eigentum verletzen können.

Entwickler nutzen immer häufiger kontinuierliche Tests mit generativen KI.

 

Was ist ein Easter Egg?

Ein Easter Egg (Osterei) ist eine undokumentierte Funktion, die in der Software versteckt ist und die meist durch eine besondere Tastenkombination oder eine besondere Eingabe aufgerufen werden kann.

Das erste Easter Egg in einem Computerspiel soll Warren Robinett im Abenteuerspiel "Adventure" versteckt haben. Es wurde 1978 für die Spielkonsole Atari 2600 programmiert.

Easter Eggs finden sich neben Applikationen, Betriebssystemen, Browsern und Spielen inzwischen auch auf zahlreichen Internetseiten und sogar in mobilen Apps.  

Beispiele:

  • World 97: Flipper

  • Excel 97: Flugsimulator (steuerbar mit der Maus)

  1. Um den Flugsimulator zu starten muss eine neue Arbeitsmappe geöffnet und die F5-Taste gedrückt werden und anschließend die Eingabe von "X97:L97" gemacht werden dann einmal die Shift-Taste gedrückt werden und dann ist ein gemeinsames Drücken von Strg und der Umschalttaste nötig sowie einem Klick auf den Diagramm-Assistenten.

  • Excel 2000: Autorennspiel

  • Excel 2010: Monkey Island Spiel

  • Mediaplayer Winamp

  1. Lamas sind mit ihren Köpfen in Richtung der Musik versteckt, die gespielt wird. Um die Tiere zu sehen, genügt  eine bestimmte Tastenkombination. Der Edelstein widerum ist nur bei einer speziellen Fenstergröße sichtbar.
  • Skype
  1. Wenn man "drunken" eingibt und dann die Eingabetaste  drückt, erscheint ein verwirrtes, ertrunkenes Gesicht.
  • Chrome-Webbrowser
  1. Ein kleines Fall-Down-Spiel zum Anklicken von Buchstaben in einer bestimmten Zeit (angeben von "Zerg Rush" und dann wählen des ersten Suchergebnisses "Zerg Rush by Google" aus.
  2. Erscheinen eines Grogu (Bei der Eingabe "grogu")
  3. Meteoritenanimation (Bei der Eingabe von "meteorit"
  4. Waasserwaage (Bei der Eingabe von "wasserwaage")
  5. Drehen des Displays (Bei der Eingabe von "do a barrel roll")
  6. Konfetti-Animation (Bei der Eingabe von "neujahr")

 

Computer Witze

Murphy's Computer-Erkenntnisse

  1. Jedes Programm, dass funktioniert, wird nicht mehr gebraucht. 
  2. Ein Programm, das fehlerfrei läuft, ist längst überholt.
  3. Wenn ein Programm nützlich ist, muss es geändert werden.
  4. Die Komplexität eines Programmes steigt solange, bis die Fähigkeiten des Programmierer nicht mehr ausreichen, es zu warten.
  5. Jede Aufgabe benötigt doppelt so viel Zeit wie Sie ansetzen. Verdoppeln Sie die Zeit, dauert die Aufgabe viermal so lang.
  6. Die ersten 90% des Programms benötigen 10% der Zeit, und die letzten 10% benötigen die anderen 90%.
  7. Ein Programm, das du Freitags ablieferst, siehst du Montag wieder.
  8. Die Fehlermeldung ist die gemeinste Rache deines Computers.
  9. Je größer das Programmiervorhaben, um so spaeter werden grundlegende Ablauf-Fehler entdeckt.
  10. Teste nie ein Fehlersuchprogramm, das du nicht handhaben kannst.
  11. Wenn man genügend Daten gesammelt hat, kann man mit statistischen Mitteln auch seine falsche Meinung beweisen.
  12. Wenn du nicht weißt, was du tust, mach's mit Eleganz.
  13. Wenn ein Problem weg ist, gibt es immer noch Leute, die an der Lösung arbeiten.
  14. Die bis zum Erreichen des Ziels verbleibende Arbeit steigert sich mit dem Herannahen des Abgabetermins.
  15. Jede ausreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.
  16. Je wichtiger die Personen sind, die Ihr Demo sehen wollen, desto geringer ist die Chance, es glatt über die Bühne zu bekommen.
  17. Ein Softwarefehler tritt immer dann auf, wenn Sie mehrere Stunden gearbeitet haben, ohne Sicherungskopien zu machen.
  18. Die Ergebnisse eines Programms sollten immer reproduzierbar sein. Sie sollten alle auf die gleiche Art danebengehen.
  19. Glauben Sie nicht an Wunder, verlassen Sie sich auf sie.
  20. Glücklich sind die Benutzer, die nichts erwarten. Sie werden nicht enttäuscht.
  21. Die Ursache eines jeden Fehlers, der dem Rechner angelastet wird, besteht aus zwei menschlichen Fehlern. Mitgerechnet der, dem Computer den Fehler zuzuschieben.
  22. Unauffindbare Fehler gibt es im Gegensatz zu den angezeigten in unendlichen Variationen, nur letzere sind per Definition beschränkt.
  23. Jedes Programm wird sich so lange ausbreiten, bis es den vorhandenen Speicher gefüllt hat.
  24. Ein Programmgenerator produziert Programme, die mehr Fehler als der Generator haben.
  25. Die Lösung für ein Problem verändert das Problem.
  26. Innerhalb eines jeden komplexen und unbrauchbaren Programms ist eine nützliche Routine.
  27. Haben Sie nach monatelangem Training die Bedienung eines Programmes erlernt, kommt eine überarbeitete Version mit einer völlig neuen Befehlsstruktur heraus.
  28. Ein Experte ist eine Person, die kleinere Fehler vermeidet, während sie sich unaufhaltsam auf den großen Zusammenbruch zubewegt.
  • Der kürzeste Programmierer-Witz: Gleich bin ich fertig!
  • Warum sind Programmierer so schlechte Tänzer? Weil sie immer Probleme mit den (Programm)Schritten haben!
  • Die Welt des Computers ist ziemlich nahrhaft: Chips, Cookies und natürlich Festplatten.
  • Was bekommt man, wenn eine Spinne über den Monitor rennt? – Eine Web seite!
  • Was macht ein Pirat am Computer? Er drückt die Enter(n)-Taste!
  • Wie nennt man eine Biene aus der Vereinigten Staaten von Amerika? – US B!
  • Immer mehr Senioren verschwinden im Internet, weil sie die Tasten <Alt> und <Entfernen> gleichzeitig drücken!
  • Wie viel Platz wurde in der EU frei durch den Brexit? – 1 GB!
  • Das neue Windows kann einfach alles, dank 64 Bit. Na ja, wenn ich 64 Bit getrunken habe, glaube ich auch immer, dass ich alles kann!
  • Warum tragen Computer eine Brille? – Um Ihre Web-Sicht zu verbessern.
  • Wie betrinkt sich ein Computer? – Mit Screen shots!
  • Warum hat der Computer niesen? – Es hat einen Virus!
  • Wo tanzen Computer? – In der Disk-O!
  •  Wie viele Programmierer braucht man, um eine Glühbirne zu wechseln? – Keine! Es handelt sich um ein Hardwareproblem!
  • Geben Sie einem Mann ein Programm dann frustrieren Sie ihn einen Tag lang. Bringen Sie einem Mann das Programmieren bei, frustrieren Sie ihn ein Leben lang!
  • Das Debuggen ist wie die Rolle des Detektivs in einem Kriminalfilm, in dem man er auch Mörder ist!
  • Wenn man eine Million Affen an eine Million Tastaturen setzt, wird einer von ihnen irgendwann ein Java-Programm schreiben. Der Rest wird Perl-Programme schreiben!
  • Was bedeutet die Abkürzung WWW? elt eites arten.
  • Es gibt 10 Arten von Menschen in der Welt. Die einen verstehen das Binärsystem und die anderen nicht.
  • Wie zieht ein Informatiker seine Freundin aus? – getStringFromObject();
  • Warum mögen Frauen Objektorientiert-Programmierer? – Weil sie Klasse haben!
  • Was sind acht Hobbits? – Ein Hob byte!
  • IT Support: Machen Sie mal bitte alle Fenster zu. User: Auch das im Bad?
  • Ein Informatiker schiebt einen Kinderwagen durch den Park. Kommt ein älteres Ehepaar: "Junge oder Mädchen?" Informatiker: "Richtig!"
  • Was hinterlässt ein Informatiker-Vampir? – Ein(en) Mega-Bite!
  • Windows: Couldn't find your keyboard! Press F1 for help!
  • Warum verwechseln Informatiker Halloween und Weihnachten? – Weil oct(31) == dec(25)
  • Probleme eines Informatikers beim Einschlafen...

            while (!asleep())  { sleep++; }

  • Was ist der Unterschied zwischen einem Informatiker und einem Physiker? – Der Physiker glaubt, ein Kilobyte sind 1000 Byte. Der Informatiker glaubt, ein Kilometer sind 1024 Meter.
  • Was sagt ein Informatiker wenn er auf die Welt kommt? "Hallo Welt!"
  • Wikipedia: Ich weiß alles! Google: Ich habe alles! Facebook: Ich kenne alle!  Internet: Ohne mich seit ihr nichts!  Elektrizität: Redet nur weiter…!
  • Wie schläft ein Informatiker? – Im Ruhemodus!
  • Ich hätte nie gedacht das die Informatik so Hard ware.
  • Programmierer zum Spanier : "Sprechen Sie eine Programmiersprache?" – Spanier: "C".
  • Was ist 3,1415926536 zum Quadrat? –Pi pi.
  • Was ist das Lieblingsbier von Informatiker? – Bit burger.

 

Geschichte des Internets


Internet Strukturen


Internet-Sicherheit


Umimat (1961)

Unimat

Tentacle (1968)

Tentacle

IOT Anwendung