Anthony Gracia*
Künstliche Intelligenz wird angesichts der Entwicklung und Verbesserung der Rechenleistung, der Entwicklung von Lernalgorithmen und der Komplexität der Anwendungsfälle zunehmend in verschiedenen Bereichen eingesetzt. Künstliche Intelligenz ist eine umfassende technische Wissenschaft, die sich auf die Entwicklung von Theorien, Techniken, Verfahren und Anwendungssysteme zur Nachahmung und Erweiterung des menschlichen Wissens konzentriert. Die Menschen versuchen, die Verkörperung von Intelligenz mit KI zu verstehen, um eine neue Art intelligenter Maschinen zu entwickeln, die auf eine Weise reagieren können, die dem menschlichen Wissen ähnelt. Der Begriff „künstliche Intelligenz“ wurde 1956 während einer Dartmouth-Konferenz vorgeschlagen. Diese Konferenz gilt als offizielle Geburtsstunde der neuen Disziplin „künstliche Intelligenz“. Zu dieser Zeit besiegte IBMs „schwarzblauer“ Computer den Schachweltmeister und war ein perfekter Ausdruck der Technologie der künstlichen Intelligenz. Immer mehr KI-Anwendungen zielen auf Big Data, Rechenleistung, das Internet der Dinge, Objektortung, Erkennung von Anomalien und Änderungen, Bildübersetzung und automatisierte Planung ab.