Salus populi suprema lex (988) (don_katalan) wrote,
Salus populi suprema lex (988)
don_katalan

Пра лохопетов и жижитализацию

Stanislav Kukareka
Возможен ли "ИИ" или он невозможен, или сама концепция его и формулировка является глубоко ошибочной - это науке неизвестно. На самом деле. Никто не знает что такое есть "ИИ" кроме тех людей что на него жутко уповают аж до сих пор, но уповают они именно из за напряженного незнания. Есть т.н. "тест Тьюринга", который есть якобы эталоном. Тьюринг кстати был геем (и даже пострадал за это) и это тоже фактор тут. Там смысл простой, если некая программа сможет "выдать себя за человека" значит она и есть человек. ИИ то бишь. Свершившийся. На самом деле это дичь и профанация, при всем моем уважении к Тьюрингу отдельно и геям вообще. Ибо просто дичь.

Еще когда я был молодым, компьютеры были большими п программы - маленькими, в эпоху всяких древних ФИДО уже была программка емнип "псисисоп" называлась. Которая умела таки прикидываться живым человеком относительно успешно. Во всяком случае были люди которые с нею вступали в жаркие дискуссии которые порою длились по несколько дней. Не зная что "с той стороны" на самом деле лишь компьютер, и программа довольно примитивная. И то хочу заметить что оно уже тогда работало немного интересней чем нынешние чатботы. Тьюринг конечно величина, но в его формуле сильно нехватает одного момента, "какой человек". Ибо есть те кто бота (или псисисопа даже) выкупает четко со второго сообщения, а есть такие что с программой под ДОС общаются неделями на темы экзистенциальные. Люди тоже разные бывают и тут встает чисто расистский и прочий там дискриминационный вопрос "а что есть человек"...

Тут есть и другой взгляд на вопрос. Если постановка Тюьринга еще допустим может быть полезна в разрезе производства секс-игрушек например, особенно если там текст дополнить мимикой и пластикой, то это все равно очень узкая ниша. И непонятно как это нам поможет например разбить сады на Марсе. То есть решать какие то проблемы которые без ИИ решить вовсе нельзя или как минимум труднее. Оттого что некая программа (или пусть даже аппаратное устройство) сможет поддерживать правдоподобный диалог с человеком (или недочеловеком) еще совсем не следует что та же самая программа (или устройство) смогут покращить реактивный двигатель (или атомный реактор) процентов хоть на пару. И уж тем более не следует что они это смогут сделать быстрее, лучше, или пусть даже дешевле чем собственно живой человек. Понимаете проблему? А если не факт что они смогут покращить двигатель или реактор то и тем более не факт что они смогут покращить экономику или экологию планеты. Тут никакой неизбежности даже в бинокль не видно.

На самом деле та проблема чуть сложней чем кажется и к голому Тьюрингу совсем не сводится. Верней совсем не сводится. И именно по этому после периода начального энтузиазма годов 60-х или начала 70-х в тее возобладал повальный пессимизм и сама тема как таковая практически угасла, даже в чисто академических ее асппектах. Если в "период энтузиазма" главным препятствием видели (и называли) недостаток вычислительных мощностей, памяти и т.д. то сегодня в каждом кармане у бомжа тех вычислительных ресурсов больше чем даже мечтали те энтузиасты что стояли у истоков. Хоть жопой жуй ресурсов, а счастия - нема. Сегодня сраный из "Розетки" ноутбук может хранить всю "ленинку" и еще 3 библиотеки Конгресса США, а толку? А нкакого. И можно получить (реально, и задешево) и в 3 раза больше ресурсов, и в 6, и в 10, и в 100 раз, а толку? Эффект не наступает и никак не проявляется.

На самом деле в том самом ИИ есть 3 по сути основных течения. Тьюринга мы собственно вообще отбросим, "имитацию", ибо это вообще полная срань и ни о чем. Итак, первая идея это "новое знание" в понятии чисто алгебраическом. То есть попытки синтезировать некую матмодель (по сути - функцию) на некоем массиве входных данных непонятно откуда возникших. И далее на ее основе восстанавливать данные которых не было в "исходных данных", в обучающей выборке. Будь то "предсказание будущего", то есть тех данных что в выборку не попадали (и не могли) даже по диапазону. Ну как например - предсказание курса акций и такое прочее. Либо тех которые попасть могли, и даже должны были, но не попали, ввиду досадных обстоятельств. Как-то например при криптоанализе и даже отчасти DSP. Или например в распознавании образов, включая и распознавание морды лица, или там "модели потребительских предпочтений". И в этом направлении успехи есть определенные, и стоит тут заметить что именно в этих областях "решения" стоят особенно пиздоватых денег. Ну если чисто по цене софта.

Но там успехи очень осторожны. Я бы сказал даже очень-очень. И там по сути те успехи зависимы от собственно объемов входных данных и доступных вычислительных ресурсов примерно так логарифмически, только обратно-логарифмически. То есть по сути с ростом масштаба успехи падают серьезно, и там скорее всего есть предел. Предел в чисто математическом смысле, когда дальнейший рост объема входных данных не даст нам вообще ничего нового. Совсем. И уж тем более если к этому прибавить рост потребности в ресурсах, то есть цену вопроса. Да, они нам придумывают все новые применения этого дела, и если предсказание помех на линии в каком то сраном DSL модеме уже не актуально в плане рентабельности, то предсказание налогового уклонизма крупных международных корпораций якобы еще может принести вкусные деньги каким-то там бюджетам. Во всяком случае пока. И то не факт. Ибо это пока только гипотеза. И если те самые уклонисты-корпорации которые ресурсов имеют не намного меньше, а может быть и даже больше (привлечь они точно больше смогут) серьезно озадачатся противодействием, то эффективность этой темы и вовсе сойдет гораздо глубже нуля на полное говно. Ибо соревнование снаряда и брони еще никто так просто не выигрывал. У уж тем более там нету "пуль серебрянных".

И тут на этом фоне появилась третья тема. Мол если в царстве чистой алгебры и прочих автокорреляций провал как будто очевиден в близкой перспективе, то мы придумаем какие нибыдь там "генетические алгоритмы" и прочую хуйню. Которые преодолеют дескать. Это уже поколение вейперов которое не только что в институтах толком не училось, но и вообще мозги разменяли на фенолфталеин еще где то в школе. Ибо любой конечный автомат (которым по итогу и обосрется вся ваша генетика) это и есть функция. Строго. Еше по Кнуту и прочим древним мамонтам. И ничего иного. Да, туда можно привнести какие-то псевдослучайные моменты, но с точки зрения анализа они там не меняют ничего. Совсем. Это не метод. Одной случайностью (даже самой фундаментальной) другую не накрыть. Никак. Математически. Быть может это даже лучше чем автокорреляционные задрочи еще родом из 18 века, а может быть и нет, никто не знает. И знать даже не хочет, во всяком случае ничего фундаментального про это нам так и не написали. Итого весь тот ИИ в его имеющемся виде есть переусложненной без нужды формой брутфорса. И нихуя не более того. (дали буде, может быть)


Пост спочатку надрукований тут: https://don-katalan.dreamwidth.org/2138008.html.
Tags: анализ, дебилы, зеленский, кукарека, либертарианство
Subscribe
promo don_katalan december 29, 2014 14:39 112
Buy for 50 tokens
Расшифровка секретного плана адмиистративно-территориального устройства России после ее распада От гуляющих по сети различных вариантов "государственного" устройства будущего российских территорий отличается наличием территорий в совместном управлении, возвратом исторических территорий…
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments