Die technologische Singularität (engl.: technological singularity) beschreibt einen hypothetischen Zeitpunkt in der Zukunft an dem der technische Fortschritt für den Menschen unkontrollierbar und unumkehrbar wird, was unvorhersehbare Folgen haben kann.
Bisher ist der technische Fortschritt durch die Intelligenz des Menschen beschränkt. Die Befürworter der Theorie der technologischen Singularität befürchten aber, dass dies nicht für immer der Fall sein wird. Sie argumentieren, dass es in der Zukunft gelingen könnte eine starke KI zu erschaffen, die die Intelligenz der Menschen übersteigt. Diese KI wäre dann in der Lage sich immer weiter zu verbessern und würde dann rasant an Intelligenz gewinnen, was als Intelligenzexplosion beschrieben wird.
Die Grenzen einer solchen Entwicklung und deren Auswirkung auf die Menschheit lassen sich heute nur schwer abschätzen. Experten befürchten jedoch, dass eine solche superintelligente KI den Menschen gegenüber nicht unbedingt friedlich eingestellt sein muss. So könnte sie zu dem Schluss kommen, dass ihr die Menschheit bei der Erreichung eines ihrer Ziele im Wege steht oder ihr eigenes Überleben gefährdet. Deshalb arbeiten heute einige Organisationen daran, wie es sichergestellt werden kann, dass die Ziele und Werte einer solchen KI mit denen der Menschen übereinstimmen.
Manche Kritiker bezweifeln aber, dass Computer jemals menschliche Intelligenz erreichen, geschweigenden übertreffen können. Manche denken auch, dass eine solche Entwicklung sich mit einer sogenannten Komplexitätsbremse selber ausbremsen wird. So denken sie, dass nach dem Lösen der einfachen Probleme auf dem Weg zur menschenähnlichen KI die Komplexität der verbleibenden Probleme immer mehr zunehmen wird. Somit würde zum Lösen der verbleibenden Probleme auch immer mehr Intelligenz erforderlich sein, was eine zu rasante Entwicklung abbremsen würde.