Expand Cut Tags

No cut tags
mns2012: (Default)
Фокус — в pattern matching. А вишенка на торте — современные вычислительные мощности... Но принципиально всё уже заложил К.Шеннон в 1948 г. Просто не было таких вычислительных возможностей, но уже тогда было видно, чего можно достичь.

Свойство Мышление человека "Мышление" больших языковых моделей
Источник Разум (врождённая характеристика) Статистическая корреляция в тексте
Основа Каузальные модели окружающей реальности Веса/Обратный проход в нейронных моделях
Гибкость Высокая (быстрое обучение новым правилам) Умеренная (ограничена данными на этапе обучения)
Механизм Сознательное рассуждение Распределение вероятности текстовых токенов


Таблица — courtesy of Gemini, правда, оттуда мне пришлось вымарывать эволюцию 😂.

Иногда в пользу LLM reasoning без кавычек приводят соображение, что для более или менее точного статистического прогноза большая языковая модель должна так или иначе учитывать свойства реального объекта, о котором строится прогноз (например, чтобы сопоставить слова "яблоко" и "гравитация" в статье о И.Ньютоне), и что мышление человека также зиждется на сопоставлении с образцом (делай как я, ищи общее и т.д.). Сказать по правде, это мне представляется достаточно поверхностным суждением (особенно последнее, ибо невозможно уловить даже очевидное сходство чего-то с чем-то ещё, если нет "сравнивалки", то есть врождённых, предварительно вложенных Создателем или инженером, если речь идёт об искусственных вычислительных системах, возможностей или, как сейчас принято говорить, базовой функциональности. Это всё тот самый нескончаемый спор холистов с редукционистами, идеалистов с материалистами, верующих с неверующими.

Моих две копейки: разум не есть механическая совокупность свойств. Если даже вы их обеспечите, то это ещё не значит, что разум вдруг возьмёт и появится. Природе ведь всё равно, что такое "истинно". И это не я выдумал. Как сказал атеист Алекс Розенберг, выступающий с позиций сциентизма в философии: No clump of matter is about any other clump of matter. Это верно, но лишь за исключением случаев дизайна сложных и специфичных систем, где эта aboutness достигается введением граничных условий на движение материи в системе. Отсюда видно, кстати, что логика несводима к движению материи и должна постулироваться дополнительно: каналу передачи "параллельно", что по нему передаётся — истина или ложь, небезразличными к этому могут быть лишь агент и созданный им сложный функциональный артефакт, работающий в специально сформированном прагматическом контексте.

Безжалостный факт заключается в том, что в основе больших языковых моделей лежит стохастика. Именно поэтому они легко ошибаются, если обрабатывают запросы, достаточно сильно отличающиеся от распределения, на котором они обучены.

mns2012: (Default)

The head and in frontal attack on an English writer that the character of this point is therefore
another method for the letters that the time of who ever told the problem for an unexpected.
Claude Shannon




Тезисы:

AI не заменит человека. AI (по крайней мере, LLMs) работает на основе pattern matching (word prediction), it is not inference based. И да, фундаментальные причины незаменимости человека — гёделевская неполнота, the data processing inequality, AI model degradation on self-derived data. А то, что изменится род человеческой деятельности, — это 100%. Такие сдвиги уже происходили в прошлом, однако новые возможности появлялись с гораздо большей скоростью, чем отпадали старые. Не так давно "компьютером" называлась профессия. И кто сегодня об этом вспоминает? А сколько новых профессий появилось с приходом компьютеров в нашу жизнь?!

mns2012: (Default)
С френдом [livejournal.com profile] a_lazar вот тут.

Моя позиция: любая система, будь то калькулятор или chatGPT последней супер-дупер версии, действует по "железному" принципу Garbage In Garbage Out, "что заложишь, то и получишь".

За этими словами скрывается очень много конкретики. Я не спорю, что результаты применения AI впечатляют, и это продолжится ещё какое-то время. AI, по словам одного из заметных деятелей в этой области Andrew Ng (Carnegie Mellon), -- это электричество 21 века. Культурное влияние AI огромно.

Однако инженерам, людям, занимающимся разработкой и внедрением всего этого хозяйства, не нужно объяснять необходимость отделять хайп от реальности. Все эти действительно прекрасные результаты говорят о том, что человеческий разум (human intelligence), вспомоществуемый искусственным разумом (AI), доминирует над человеческим разумом.

AI + HI >> HI

Присутствие HI слева очень важно осознать. Оно никуда не денется.

А куда ему деться? Требуется осуществлять приёмку AI-систем, настраивать параметры, вводить их в эксплуатацию, мониторить (ибо они деградируют со временем), выводить из эксплуатации, как и любую другую систему. Это будет делать че-ло-век (с помощью AI ;).

Настройка параметров любой технологической системы (AI не исключение) -- задача многокритериальной оптимизации комбинаторной сложности. Система AI хороша настолько, насколько хороши данные, на которых она обучена. Вот где главный плюс AI-систем, а не в том, что они разумнее человека (это всё лирика, не имеющая отношения к делу). AI позволяет специалисту разговаривать с данными.

Чрезвычайно важный теоретический результат состоит в том, что ни один алгоритм (включая супер-дупер нейросеть) не является наилучшим на множестве всех задач. Это суть так наз. теорем No Free Lunch (существуют две версии, но идея у них общая). Поэтому место для экспертного знания в предметной области, которым обладают люди, всегда будет. AI никогда не вытеснит человека на 100%.

Вывод о том, насколько хороши настройки, делается исходя из экспертного опыта и компромисса по независимым критериям (например, цена/качество). Отсюда даже при условии, что арбитраж делегирован какой-то другой AI-системе, человека-эксперта не выкинешь. Человек-эксперт будет необходим и для элементарного "подкручивания гаек" и контроля за тем, чтоб всё росло, чтоб всё цвело.

Ок, машина победила чемпиона в го. Все радуются. Но о чем говорит эта победа? О том, что группа экспертов и специалистов по игре в го, с помощью которых создавалась, настраивалась и обучалась машина, оказалась сильнее одного чемпиона го. Вся разница в том, что эта победа закладывалась задолго до начала матча. Она ничем фундаметнально не отличается от случая, когда машина лучше, чем рентгенолог, на конкретном снимке распознаёт опухоль. Для того и создавались машины, чтобы облегчить труд человека.

Вобщем, прежде чем делать далеко идущие (тем более мировоззренческие выводы о том, а есть ли в человеке вообще что-либо нематериальное, если он проиграл машине в го), надо всё это хорошенько взвесить.



Кречетов: -- Так что ещё рано делать выводы, Михал Михалыч.
Довжик: -- А я, Виталий Егорыч, с выводами никогда не спешу.
mns2012: (Default)
— пытаться объяснить chatGPT, как мне надо изменить команду sed. В итоге я всё-таки вымучил нужную команду, хотя на последнем этапе её пришлось поправить вручную. Речь идёт о параметрах специализированной команды unix-ового строкового редактора, которые подбираются по описанию на естественном языке. Всё-таки неплохо.

Мне надо было обработать текстовый файл с json строками, вставив после каждой строки, кроме последней, запятую; в начале всего файла [, а в конце ]. То есть нужно было получить из набора json строк один большой json массив.

Искомая команда: sed '$!s/$/,/; 1s/^/[&/; $s/$/]/' input.txt > output.json
Правда, требуемый bash скрипт, который применял бы эту команду итеративно к файлам в данном директории, chatGPT выдал с первого раза. Стыдно стало, наверное, за прошлые ошибки...
mns2012: (Default)
Полезная вещь всё-таки. Всё больше пользуюсь им в работе (подписался на версию 4). Чем конкретнее вопрос, тем точнее и лучше получаешь ответ. Это, конечно, нельзя назвать general intelligence, однако впечатляет. Но и обычным поисковиком тоже приходится пользоваться. Пока ещё не прошло достаточно времени, но уже вижу ещё одну проблему: как-то упорядочивать уже полученные ответы chatGPT, накапливающиеся, как снежный ком. Мне уже приходилось объяснять одно и то же для разных вопросов. Где-то нужно хранить описания типовых задач, чтобы не тратить время на объяснение. Интересный вопрос ещё вот какой: как настроить его, чтобы он исключал из обучения ответы, содержащие интеллектуальную собственность, какие-то закрытые данные и пр.

Есть ещё специализированные продукты типа майкрософтовского Co-Pilot на основе chatGPT или подобных технологий. Кстати, Co-Pilot используется в Microsoft Fabric (единая SaaS-платформа для работы с данными, похожая на OneDrive, только в основе лежит технология OneLake). У Microsoft есть ещё один продукт, который называется Fabric (в отличие от MS Fabric). Досадный омоним, я не знаю, как они там у себя в Microsoft выбирают названия продуктов. Просто Fabric -- это другое, что-то типа Kubernetes. В принципе, MS Fabric -- это то, что надо для data science и data engineering, особенно в большой компании, но, как и использование всякой платформы, использование MS Fabric несёт риск дальнейшей зависимости от поставщика. Раз вложишься, потом поменять поставщика будет уже сложно, а Microsoft достаточно дорогой. Но то печаль лиц, принимающих подобные решения в больших компаниях, а мне для работы с данными MS Fabric была бы идеальной штукой.
mns2012: (Default)
своим мнением по поводу искусственного интеллекта (интервью Ю.Дудю). Он считает, что фактор, на котором машины на сегодняшний момент выезжают по ср. с человеком, заключается всего-навсего в том, что машины реже ошибаются. Ни о каком general AI речи пока не идёт. Сильно масло в огонь всеобщего хайпа подливают киношники.

Г.Каспаров, к тому же, считает, что даже в механике возможности роботов сильно преувеличены. Тут можно, конечно, поспорить, я думаю. Моторика как раз сильно продвинулась за последние несколько десятков лет. Я помню, как мой оппонент покойный Е.А.Девянин утверждал, что невозможно будет научить человека, которому ампутировали руку, пользоваться протезом с более, чем тремя степенями свободы. Я защищался в 1999 г. А в 2007 г. уже внедряли протез руки с семью степенями свободы.

Так или иначе, хотя бы сам факт скепсиса в гипертрофированно популярной сегодня области искусственного интеллекта меня приятно удивляет.
mns2012: (Default)
Всё, о чём мы говорили по поводу дарвиновской модели и искусственного отбора, справедливо и в отношении так наз. алгоритмов глубокого обучения (в частности, многоуровневых перцептронов и пр. заковык).

Там происходит то же самое: без настройки (а настройку производит, в конечном счёте, интеллектуальный агент) на решение узко определённого типа задач эти алгоритмы по производительности ничем не отличаются от научного тыка случайного поиска.

Уверенность в том, что это справедливо и для любого другого алгоритма, проистекает из так наз. "теорем о бесплатном обеде": No Free Lunch Theorems.
Эти две теоремы (одна для машинного обучения, другая для поиска и оптимизационных задач), в принципе, говорят об одном: какого-то одного алгоритма, который бы оказался самым лучшим для всех случаев жизни, не существует. Самым первым, кто это осознал, был шотландец Дэвид Юм, задавшийся вопросом: приводит ли индуктивная логика, основанная на утверждениях лишь о предшествующих наблюдениях, к новому знанию или то, что мы получаем путём индукции, представляет собой лишь переформулировку уже известного по предыдущему опыту?

  • Википедия, как обычно в отношении эволюционной тематики, пытается противоречить, утверждая, что теоремы NFL не применимы к сценарию коэволюции. Якобы в случае, когда всё параллельно эволюционирует, появляется возможность информационной "халявы". Это не так.


Из этого, в общем-то, очевидного тезиса об отсутствии "лёгкой жизни" следует, что настройка некоторого алгоритма с использованием источников информации, сторонних по отношению к нему, необходима, коль скоро мы хотим добиться производительности выше среднего по больнице.

Поэтому, как мне кажется, человеческий интеллект + машинный всегда будут доминировать над машинным интеллектом. Поэтому всегда будет нужен человек-эксперт, обладающий конкретными знаниями в своей предметной области, позволяющими найти для решения конкретной задачи оптимальные значения параметров модели.
mns2012: (Default)


AI always operates in a silo, whereas thinking outside of the box is mandatory for creativity. If AI is trained on Bach, it will not generate a Stravinsky. R.Marks

Затрагиваемые в видео вопросы: AI, the Lovelace test for creativity, AI and creativity, AI and good/evil, computable and non-computable aspects of human life, computers and understanding/sentience, John Searle's Chinese room, computers and empathy/love/compassion, Winograd schema, automatic assigning of meaning to vague pronouns, AI and humour, Church-Turing thesis


Edmond de Belamy. Картина, написанная GAN сетью (2018, wikipedia, fair use).

И всё-таки как можно удостовериться в том, что нечто (некий чёрный ящик) НЕ имеет эмпатии? Строго доказать или опровергнуть это, кмк, невозможно. В сущности, и человек, беседующий с нами, в строгом смысле слова в данном контексте является таким же чёрным ящиком, как и бот.

Маркс отвечает на этот вопрос, используя следующие силлогизмы.

Большая посылка: запрограммировать можно лишь то, что является вычислимым.
Малая посылка: AI - это программа.
Вывод: Следовательно, AI является вычислимым.

Большая посылка: Для AI доступны лишь вычислимые состояния.
Малая посылка: Эмпатия или субъективные переживания (квалиа) не являются вычислимыми.
Вывод: Следовательно, эмпатия и субъективные переживания недоступны в качестве состояний для AI.

И тем не менее, кто-нибудь может возразить:

— А кто вам сказал, что эти самые квалиа есть нечто существующее? Ведь не даром мы говорим о них как о чём-то субъективном.

Я задаю этот вопрос лишь формально, чтобы выступить в роли оппонента Р.Маркса. Я понимаю, что, в сущности, он, конечно, прав. Но возможности строгого доказательства я не вижу. Более того, я убеждён в том, что его не существует по той простой причине, что то, что мы хотели бы доказать (то есть вычислить), является невычислимым.

Обсуждаемый нами вопрос можно охарактеризовать как парадоксальный, с рациональной точки зрения, тезис об объективном существовании субъективного.

Большая область человеческого бытия не покрываема вычислениями. Есть опыт невербальный, неалгоритмизуемый. Опыт прозрения, интуиции, озарения и восприятия благодати. Но таков уж этот опыт по самому своему внутреннему свойству, что он не передаваем в полноте описанием, сколько бы слов в нём ни было. Вот почему, вероятно, свв. отцы, причастные опыту богообщения, делились о своих переживаниях лишь в общих чертах, часто заключая речь словами: "прочее же да будет почтено молчанием".
mns2012: (Default)
Robert Marks, Non-Computable You.

Читаю. Автор утверждает, что большая часть того, что составляет "я", принципиально невычислимо. Прежде всего, это так наз. qualia, или субъективные переживания: радость, удовлетворение, тревога, сомнение, боль (сюда, по-моему, он относит даже физическую боль) и пр. Кстати, подумалось ещё вот о чём. Cама формализация внутренних переживаний, если таковая когда-либо будет получена, объективирует субъективный опыт, в чём скрыто противоречие: либо это невозможно сделать, либо внутренний опыт не есть субъективная вещь. Мне лично такая формализация представляется невозможной.

Роберт Маркс говорит о том, что алгоритмически можно лишь сымитировать эмоции и внешние проявления переживаний, но не сами переживания, поскольку они невычислимы. Поэтому, делает вывод автор, ни машина не сможет никогда приобрести сознание, сколь бы сложными алгоритмы ни были, ни человек — "загрузить сознание" в компьютер, даже при условном выполнении требований по памяти и быстродействию, предъявляемых такой задачей.

Но с другой стороны, невычислимо и то, обладает ли собеседник действительно сознанием или всего-навсего лишь его внешними проявлениями.

Поэтому ситуация здесь кмк патовая.

Продолжаю читать.
mns2012: (Default)
Новая книга по проблемам AI и сознания:

Robert Marks: Non-Computable You: What You Do That Artificial Intelligence Never Will

(см. также интересные отзывы)

В обсуждении на сайте uncommondescent.com один комментатор предположил, что такие книги -- конец науки. Это, конечно, не так. Напротив, фальсифицируемые запрещающие утверждения являются наиболее мощными по своим последствиям. Никто же ведь не говорит, например, что теоремы о неполноте или второе начало термодинамики -- это конец науки.

Profile

mns2012: (Default)
mns2012

January 2026

S M T W T F S
    1 23
45678910
11121314151617
18192021222324
25262728293031

Most Popular Tags

Syndicate

RSS Atom

Style Credit

Page generated Jan. 14th, 2026 08:33 pm
Powered by Dreamwidth Studios