Как появился ИИ с моей точки зрения 06.04.2024
Всем привет! Тут хочу поделиться как появился и развивался ИИ с моей точки зрения.
В 1957 году в США Фрэнк Розенблатт придумал персептрон см. https://ru.wikipedia.org/wiki/Перц�%.... Про персептрон я узнал примерно во второй половине 90х, просто отец купил трёхтомник по психиатрии.
В 1991 году Гвидо ван Россум придумал Python см. https://ru.wikipedia.org/wiki/Python
Первая 3D модель руки и лица были сделаны в США в 1972 году
Сначало примерно в 80-90х появился вокодер, и можно было делать роботизированный голос:
В википедии написано https://ru.wikipedia.org/wiki/Воко�%...:
Изначально вокодеры были разработаны в целях экономии частотных ресурсов радиолинии системы связи при передаче речевых сообщений. Экономия достигается за счёт того, что вместо собственно речевого сигнала передают только значения его определённых параметров, которые на приёмной стороне управляют синтезатором речи.
В середине 90х в России музыканты утверждали, что они уже могли зарубежными музыкальными программами модифицировать голос. Я же узнал про модификатор голоса примерно в 2006 году, когда купил программу Magix Music Maker Techno Editiom²
А в 2008 году когда у меня была сильная депрессия мама мне подарила Magix Music Maker XXL, в комплекте была программа Magix Music Maker 2008 Producer Edition, спомощью которой можно было улучшать голос:
И в Samplitude 15 тоже была программа для модификации голоса:
Вот так в 2008 году я корректировал вокал:
Пример коррекции вокала автотюн:
Примерно в 2015 год появился плагин Harmor:
Примерно в 1995 году мне дал сын друга моего отца какой-то диск, и там была программа WinMorph см. https://www.chip.de/downloads/Winmorph_12990280.html:
Спомощью морфингового софта Rolling Stones сделали классный видеоклип
Вот сам клип
Есть так-же бесплатная программа называется JavaMorph см. https://community.linuxmint.com/software/view/javamorph
В 80х годах американцкая компания Silicon Graphics разработала рабочие станции, но они были очень дорогие. В фильме Терминатор и Титаник использовалась рабочая станция:
1.
2.
3.
4.
В 1997 году Microsoft разработала синтезатор речи для Windows 95/98/2000, который входил в комплекте с Microsoft Visual Studio 6.0, и российские разработчики делали голосовой собеседник для своего переводчика:
Примерно в 2008 году я узнаю про фирму Reallusion, которая выпускает ПО для работы с фотографией FaceFilter 2, и создания анимации CrazyTalk 5 и iClone 3, iClone 4. iClone пользуется ZDF аж с 2008 года. В iClone 5 Pro если была камера Microsoft Kinect можно было записать анимацию в реальном времени:
Вот танцующий карлик вовка пупкин, я его сделал в программе iClone 4:
В начале 2000х г. появляется OpenCV, я тут писал пример, как распозновать лица см. https://programming.mybb.ru/viewtopic.php?id=222
В 201x фейсбук покупает стартап, т.к. ИИ который разрабатывал этот стартап, очень хорошо распознаёт лицо. Лицо на фотографии натягивается на 3D модель, и происходит фронтализация:
Потом таким образом появляется DensePose
А так-же появляется PyTorch см. https://ru.wikipedia.org/wiki/PyTorch
В 80х-90х американские учёные занимаются робототехникой, чтобы научить робота ходить и не падать, самым крутым успоехом считается, что их робот сделал сальто:
И их роботы стабильные и не падают:
В 201x Intel разрабатывает специальную камеру-лидар, которая работает в 3D:
В 201x американская компания Nvidia начала разрабатывать ИИ:
В 2005 году Corel выкупила Jasc и выпустила Paint Shop Pro X, там можно было изменять одна из возможностей спомощью сетки:
А вот результат: