Автономный компактор
May. 28th, 2025 03:01 pmУ заказчика есть автономный компактор. Автономная машина -- вроде, круто. Но на самом деле, к ней нужен ещё человек, который должен сидеть весь день и наблюдать за тем, как она работает (по всяким причинам типа compliance, safety и т.д.). Этот род деятельности очень непопулярен среди рабочих. Никто не хочет этого делать: требуется повышенное внимание и дополнительная ответственность.
Вот вам и весь AI. Видимость одна. Нет, я не спорю, в каких-то задачах, безусловно, использование AI оправдано и, что важно, окупается. Или когда нет выбора. Например, в Чернобыле использовались автономные бульдозеры. Но там понятно, нужно было быстро делать, работа человека в опасной зоне была исключена, да и денег, видимо, жалеть не приходилось. А в обычных условиях сомневаюсь, чтобы оно окупалось, разве что какой-нибудь мега-проект, когда есть возможность потратить деньги на а "конфетку" и утереть нос конкурентам. Думаю, что в большинстве практических приложений люди будут нанимать людей, так как это дешевле и надёжнее. Слишком много шума от AI, а выход не так чтобы уж очень крутой (пока, по крайней мере).
В использовании того, что имеют в виду под термином "искусственный интеллект", я вижу отложенную опасность, мину замедленного действия. Я имею в виду загрязнение реальных данных всякими AI-"интерполяциями", которыми в конце концов замусорят весь интернет. И потом пойди разберись, где реальные данные, а гдеРабинович Моцарта насвистел AI поработал. Уже сейчас создают фейковые новости, которые не отличишь от настоящих.
Была такая книжка "Физики шутят"...
−Скажи, ну, кому нужен биллиардный шар с растущими на нём волосами?
Юлиан Семенов устами шефа Гестапо про AI...
Вот вам и весь AI. Видимость одна. Нет, я не спорю, в каких-то задачах, безусловно, использование AI оправдано и, что важно, окупается. Или когда нет выбора. Например, в Чернобыле использовались автономные бульдозеры. Но там понятно, нужно было быстро делать, работа человека в опасной зоне была исключена, да и денег, видимо, жалеть не приходилось. А в обычных условиях сомневаюсь, чтобы оно окупалось, разве что какой-нибудь мега-проект, когда есть возможность потратить деньги на а "конфетку" и утереть нос конкурентам. Думаю, что в большинстве практических приложений люди будут нанимать людей, так как это дешевле и надёжнее. Слишком много шума от AI, а выход не так чтобы уж очень крутой (пока, по крайней мере).
В использовании того, что имеют в виду под термином "искусственный интеллект", я вижу отложенную опасность, мину замедленного действия. Я имею в виду загрязнение реальных данных всякими AI-"интерполяциями", которыми в конце концов замусорят весь интернет. И потом пойди разберись, где реальные данные, а где
Была такая книжка "Физики шутят"...

−Скажи, ну, кому нужен биллиардный шар с растущими на нём волосами?
Что касается всякой чат-гопоты, то там скорее реклама. Ничего действительно креативного он делать не может, вместе с человеком, направляющим его, -- дело другое:
AI + Human Intelligence >> AI,
где >> означает доминирование в смысле создания новизны.
Юлиан Семенов устами шефа Гестапо про AI...
https://ria.ru/20241107/krysy-1982337377.html
ИИ подключили к крысе, и она якобы даёт ответы через клавиатуру. На все! вопросы.
Неважно даже, что это разводка, на любой вопрос любой ответ. Скорее всего там какой-нибудь тупой стимул либо еды, либо удовольствия от нажатия клавиш. Это не столь важно. Важно, что лукавый дух хочет низвести образ Божий и подменить его образом зверя.
Если Бога нет, то нет и человека. А есть один лишь зверь.
Спасибо о. Игорю Белову за то, что обратил внимание на эту новость.
ИИ подключили к крысе, и она якобы даёт ответы через клавиатуру. На все! вопросы.
Неважно даже, что это разводка, на любой вопрос любой ответ. Скорее всего там какой-нибудь тупой стимул либо еды, либо удовольствия от нажатия клавиш. Это не столь важно. Важно, что лукавый дух хочет низвести образ Божий и подменить его образом зверя.
Если Бога нет, то нет и человека. А есть один лишь зверь.
Спасибо о. Игорю Белову за то, что обратил внимание на эту новость.
Китайская комната
Aug. 27th, 2024 10:05 amКитайская комната Дж.Серла -- аргумент против гипотезы сильного ИИ (что якобы ИИ способен что-то понимать так же, как понимает это человек). "Механика" ИИ отличается от мыслей человека тем, что представления об истинности суждений у неё нет, а у человека есть. Человек, хотя и делает ошибки, понимает, чем рассуждение отличается от набора несвязанных суждений. ИИ шурует безотносительно содержания высказываний. Китайская комната.
AI + Human Intelligence >> Human Intelligence
Присутствие Human Intelligence слева никуда не денется. ИИ нуждается в узде естественного интеллекта, чтобы люди не ели ядовитые грибы. Тришкин кафтан: залатали дырку там, появилась новая здесь. Нужен оракул, эксперт, которым и выступает человек (или группа специалистов). То, что человек делает ошибки, в каком-то смысле является a blessing in disguise.
Утопическое представление о том, что логика спасёт мир, старо, как мир.
AI + Human Intelligence >> Human Intelligence
Присутствие Human Intelligence слева никуда не денется. ИИ нуждается в узде естественного интеллекта, чтобы люди не ели ядовитые грибы. Тришкин кафтан: залатали дырку там, появилась новая здесь. Нужен оракул, эксперт, которым и выступает человек (или группа специалистов). То, что человек делает ошибки, в каком-то смысле является a blessing in disguise.
Утопическое представление о том, что логика спасёт мир, старо, как мир.
Наукообразный идиотизм
Aug. 26th, 2024 09:34 pmВ Великобритании семья попала в больницу после употребления ядовитых грибов. Они были собраны по рекомендациям книги, купленной на крупной онлайн-платформе.
Книга, предназначенная для новичков, была сгенерирована искусственным интеллектом и содержала ошибки, что привело к серьезному отравлению.
Этот случай привлек внимание к проблеме распространения книг, созданных ИИ, которые могут представлять опасность из-за неверной информации.
Платформа Amazon уже удалила проблемную книгу, но на сайте все еще можно найти множество подобных изданий, что вызывает тревогу среди экспертов.
https://www.securitylab.ru/news/551241.php
Для тех, кто сомневается и думает, что это всё желтая пресса:
https://pubmed.ncbi.nlm.nih.gov/36794335/
Проблема доверия сгенерированной ИИ информации, увы, имеется.
Книга, предназначенная для новичков, была сгенерирована искусственным интеллектом и содержала ошибки, что привело к серьезному отравлению.
Этот случай привлек внимание к проблеме распространения книг, созданных ИИ, которые могут представлять опасность из-за неверной информации.
Платформа Amazon уже удалила проблемную книгу, но на сайте все еще можно найти множество подобных изданий, что вызывает тревогу среди экспертов.
https://www.securitylab.ru/news/551241.php
Для тех, кто сомневается и думает, что это всё желтая пресса:
https://pubmed.ncbi.nlm.nih.gov/36794335/
Проблема доверия сгенерированной ИИ информации, увы, имеется.
Интересный материал.
Меня всегда интересовал этот момент. Мы можем иметь алгоритм для решения тех задач, которые допускают существование алгоритма, но предложить хотя бы шаблонное решение ещё не известной задачи? Вот это и есть творчество.
В принципе, автор говорит о том, что, на мой взгляд, является одим из выражений принципа No Free Lunch, который был сформулирован относительно поисковых задач: не существует такого алгоритма, который был бы лучше всех остальных на всём множестве поисковых задач. Этот теоретический результат говорит о том, что всегда будет спрос на экспертное знание в конкретной области применения алгоритмов комбинаторного поиска. Мне кажется, что это вот оно и есть, отсюда (если я конечно не ошибаюсь) видна невозможность построения general AI, поскольку general AI как раз и есть попытка автоматически заполнить те пробелы, где нужен экспертный опыт.
Меня всегда интересовал этот момент. Мы можем иметь алгоритм для решения тех задач, которые допускают существование алгоритма, но предложить хотя бы шаблонное решение ещё не известной задачи? Вот это и есть творчество.
В принципе, автор говорит о том, что, на мой взгляд, является одим из выражений принципа No Free Lunch, который был сформулирован относительно поисковых задач: не существует такого алгоритма, который был бы лучше всех остальных на всём множестве поисковых задач. Этот теоретический результат говорит о том, что всегда будет спрос на экспертное знание в конкретной области применения алгоритмов комбинаторного поиска. Мне кажется, что это вот оно и есть, отсюда (если я конечно не ошибаюсь) видна невозможность построения general AI, поскольку general AI как раз и есть попытка автоматически заполнить те пробелы, где нужен экспертный опыт.
Интересное кино...
Jul. 1st, 2022 07:47 pmhttps://mindmatters.ai/2022/03/the-ai-illusion-state-of-the-art-chatbots-arent-what-they-seem/
Про чат-боты и про то, как их время от времени подчищают, буквально вписывая ответы на каверзные вопросы дошлого собеседника, чтобы их интеллектуальность выглядела поправдоподобнее.
Про чат-боты и про то, как их время от времени подчищают, буквально вписывая ответы на каверзные вопросы дошлого собеседника, чтобы их интеллектуальность выглядела поправдоподобнее.
Граждане, не верьте компьютерщикам :)
Aug. 31st, 2021 04:49 pmНа просторах интернета нашёл обсуждение одного алгоритма машинного обучения. Супер-алгоритм, чего-то такое классифицирует. Хорошо.
В последнем абзаце читаем: производительность алгоритма сильно зависит от параметра, который называется частотой выборки. И далее автор советует: находить оптимальное значение параметра следует в каждом случае особо для ваших конкретных данных. Это тоже, вроде, ожидаемо. Настройка параметров для оптимизации производительности алгоритма - отдельная тяжёлая задача.
Я всё это понимаю. Но только пусть они не рассказывают сказки про сингулярность. Никогда она не наступит. Человека никогда машина "за скобки" не вынесет. Проблема фильтрации шума от полезного сигнала будет стоять всегда, для чего всегда будет необходим конечный арбитраж человека, ибо несть конца исключениям из правил...
В последнем абзаце читаем: производительность алгоритма сильно зависит от параметра, который называется частотой выборки. И далее автор советует: находить оптимальное значение параметра следует в каждом случае особо для ваших конкретных данных. Это тоже, вроде, ожидаемо. Настройка параметров для оптимизации производительности алгоритма - отдельная тяжёлая задача.
Я всё это понимаю. Но только пусть они не рассказывают сказки про сингулярность. Никогда она не наступит. Человека никогда машина "за скобки" не вынесет. Проблема фильтрации шума от полезного сигнала будет стоять всегда, для чего всегда будет необходим конечный арбитраж человека, ибо несть конца исключениям из правил...
