Если объяснять коротко, то Гуд говорил, что возникнет интеллект, который станет себя улучшать. Или компьютер, который будет сам переписывать свои программы. Или улучшенный человек. Или киборг.
Виндж говорил, что сингулярным будет момент в будущем, потому что невозможно предсказать, что будет делать более умное, чем ты, существо. Кстати, это одна из причин, почему в фантастике не встречается сверхразумных персонажей — потому что разумность персонажей ограничена разумностью автора. Поэтому фантасты надолго переставали писать о сверхдалеком будущем, вплоть до появления трансгуманистической фантастики. То есть технологическая сингулярность выражается в том, что мы не можем предсказать поведение тех, кто будет за этой точкой, таким будет рост мощности компьютеров.
Третье понимание предложил Курцвейл, который очень любил графики, и поэтому для него сингулярность это момент, когда экспоненциальный рост переходит в двойной экспоненциальный, в гиперболический и в бесконечный, а вообще-то ничего такого особенного и не происходит, просто рост во всех областях.
Сингулярность имеет много имен: трансцендентность, переход, скачок и так далее.
Итак, в чем суть?
Человек сейчас пытается себя улучшать, но делает это плохо и медленно. Если создать интеллект, который делает те же операции на порядки быстрее, то он и улучшать себя будет быстрее, плюс не будет ограничен сроком жизни биологического тела. Не совсем понятно, будет ли там переход количества в качество.
Тут нужно упомянуть еще одного персонажа: Стивена Вольфрама.
Он пришел вот к какому заключению: любая разумная система одинаково разумна, то есть любая мысль может быть исполнена на любом мозге. Если принять это, то получается, что сверхинтеллект может быть лучше и сильнее человеческого только количественно. Опять же, если это принять, то есть две новости: хорошая в том, что нам не грозит уничтожение; плохая в том, что качественный скачок нам тоже не грозит.
Некоторые, например Элиезер Юдковский и Ник Бостром, от этого огорчаются.