черновик
Аргументированный скептицизм по отношению к ВсякимТамGPT
Вводная
Я – аргументированный скептик, относительно ВсякихТамGPT. Почему – скептик – потому, что я против хайпа и утверждения, что ИИ скоро заменит всех и всё.

Но я подчеркиваю – «аргументированный». Потому как, любопытство и тяга к новым технологиям мне не чужда, поэтому несмотря на скепсис по отношению к тому, что называют ИИ и всяким там GPT, я приобщаюсь к этим технологиям. В данном случае, чтобы подобрать аргументы в пользу довода «пустое это все ваши ИИ». При этом я не чураюсь фиксировать положительные аспекты.

С момента появления ChatGPT и начала хайпа, вокруг всего этого, я «пропустил через свои руки» YandexGPT, GigaChat от Сбера (при этом, подчеркну, за пользование этими сервисами я заплатил свои кровно заработанные деньги), DeepSeek (потому что бесплатный). «Пропустил через свои руки» - это значит, что я пробовал при помощи них решать свои практически задачи – но об этом подробнее ниже.
А что же насчет ChatGPT ? а тут и просто, и сложно одновременно. Как только начался ажиотаж вокруг ChatGPT, моя интуиция сказала мне «фигня все это», а внутренний голос решил «ну раз такое массовое помешательство – я в этом участвовать не буду !». Аналогичная история была с фильмом «Титаник» с Леонардо ди Капиро. Когда он у нас шел в городе несколько месяцев подряд на фоне всегородского помешательства «ах, про любоффф» - мой внутренний голос занял протестную позицию – масс-культура, всеобщее помешательство – без меня. И да, я до сих пор следуя этой принципиальной позиции, не посмотрел и не буду смотреть «Титаник» 😊

А в 1995-96 гг. когда начался ажиотаж вокруг Интернета – моя интуиция сказала «даааа ! это тема !!! за этим будущее !!!» и был одним из первых, кто окунулся в эту технологию. Я купил модем, я выходил в интернет по городскому телефону на сверх низких скоростях.

Вот такой я противоречивый человек 😊
Перейдем к аргументации, почему «баба яга против».

Коротко: какие бы свои рабочие задачи я не пытался решить с применением GPT – решить я их толком не смог. И это не потому, что у меня руки кривые и я не умею промпты писать, а потому что это GPT.
Итак, погнали по кейсам.
Вопрос-ответ
Во-первых, я в корне против термина «искусственный интеллект». Искусственный – да. Интеллект – нет ! Интеллект – это способность генерировать новые и нестандартные решения задач. Но все эти GPT не способны создать новое ! А рассуждать, они тем более не умеют – но об этом чуть ниже.

Сама логика нейронных сетей, лежащих в основе GPT, а нейронные сети – это математический аппарат – это поиск похожих объектов: картинок, текстов, голосов.

Что сегодня представляют собой любая GPT ? в нее на входе подали (образно говоря) «весь интернет» и научили быстро находить ответ на вопрос, который задает пользователь. На секундочку ! так это получается надстройка над поиском а-ля Яндекс, только вместо поисковой строки и у тебя промпт, а вместо результатов поиска – не список страниц, а систематизированная информация. То есть по-большому счету, мне облегчили жизнь – не надо шариться по результатам поиска – прыгать по разным страницам, чтобы собрать полный ответ на мой вопрос.
Я конечно же тренировался задавать вопросы всем этим GPT, и даже походил на некоторые мероприятия, где рассказывают, как правильно формулировать промпты. НО каждый раз, получая ответ от GPT, я задаюсь двумя главными вопросами

(а) источник и степень достоверности информации в ответе ?

(б) степень актуальности информации ?

Когда я сам что-то ищу на поиске, я тщательно выверяю источник (о критериях доверия или не доверия – чуть ниже) + смотрю дату публикации страницы.
Ремаркс: 100 % моя практика – если задавать GPT вопросы, связанные с юридической тематикой – она 100 % врёт. Потому что она обучена не на базе Консультанта и Гаранта, а на статьях в интернете. Причем давно …. За это время изменилась законодательная база, о которой нейросеть еще не знает … Более того, авторы старых статей в интернете не удосужились переписать свои старые страницы – и по факту там враньё !
Нежданчик
Пока я писал этот материал ....
Большинство нейросетей добавили в результаты ответа ссылки на источники

Отобрали, так сказать, контраргумент ....
В этом смысле мне больше нравится поиск Яндекс с неро – он тоже выдает краткую выжимку по запросу НО он еще и дает ссылки на источники !

Моя личная практика – вопросы по работе, которые я задаю – у GPT нет ответа … И когда я пытаюсь найти на яндексе или гугле – я не всегда их нахожу. Ну, ок … я такой может и единственный, кто шипко умный 😊

Так давайте называть ChatGPT – еще одной поисковой системой – а не раздувать хайп про ИИ и замену всех и вся.

Да, есть отличие от поиска. В поисковую строку (образно говоря) ты можешь спросить одно предложение. В GPT можно сформулировать развёрнутый вопрос в несколько абзацев

Но, во-первых, может получиться как в том анекдоте (это кстати, свежее с анекдот точка ру)
А во-вторых, где ИИ, которому на вход подаешь своё резюме, требования к проекту, заработной плате, бенефитам, организации рабочего места – а она тебе на выходе – оффер. Реальный. Нет таких … и не будет …

Об этом громко не кричат, но даже «адепты ИИ» отмечают, что ChatGPT тупеет… И объективных причин тому несколько

(а) база для обучения (суть интернет) – закончился
(б) новую информацию владельцы сайтов начали закрывать от роботов. Серьезная, ценная информация (типа правовых баз данных гарант и консультант) всегда была по подписке в закрытом доступе ..
(в) очень много полезной информации в каналах и чатах Телеграмма. НО кто ж её отдаст опенаи или тому же яндексу для пополнения базы ...
(г) есть версия, что все эти GPT отупели, потому что они учатся на вопросах пользователей, а первые пользователи (сорри, ничего личного) были «тупыми» и задавали «тупые вопросы».
Тема с дообучением GPT на корпоративной базе знаний и технологией RAG ….

Обратите внимание, до сих пор не появилось юридических ИИ-агентов, хотя казалось бы ну что такого сложного – а давайте загрузим в GPT весь Консультант и будем ему задавать вопросы вместо юристов, а он будет в суды за нас ходить … Так ведь нет …

Почему ? да потому что (а) это дорого (б) это не надо ! Консультант и Гарант профессионально подготовили законодательную базу и сделали нормальный профессиональный поиск по ней. Так-то это те же Яндекс и Гугл в профильной нише …

У меня знакомые решили сделать RAG-систему для одной компании: прикрутить GPT для кучи неформализованных внутренних корпоративных документов. Пример видоизмению (ибо NDA), но смысл от этого не изменится. Что имеем ? кучу вордовских и PDF-файлов с отчетами об оценке автомобилей. Это в основном текст, но встречаются и цифры. Документы вроде сделаны по определенному внутрикопрортивному стандарту, но все равно, каждый автор пишет по-своему.
Произвели определенные технические преобразования с этой свалкой PDF и doc-файлов, прикрутили к ней LLM, сделали небольшого чат-бота для работы…. Далее запрос «сделай табличку по сумме ущерба по маркам автомобилей» и о ! чудо ! она делает табличку: в первом столбике – марки автомобилей, во втором – сумма ущерба. И все таки – вау ! даст ист фантастиш ! Да руками бы мы собирали 2 недели, а тут за 2 секунды.
А у меня вопрос: а это чудо техники, все марки автомобилей учло ? а суммы итогового ущерба посчитаны верно ? кароче: вопрос полноты и качества данных ? !

И тишина … чтобы убедиться, что собранная табличка не лажа – надо что сделать ? правильно ! руками прошерстить все документы и тщательно выбрать «марка», «сумма ущерба» …

А иначе получится как в том анекдоте: у кандидатки на должность секретаря референта спрашивают: сколько символов в минуту на клавиатуре набираете в минуту ? 100 000 знаков (и про себя – такая фигня получается …)
Коллега решал задачу при помощи GPT … задача: есть SQL-код формирования витрины хранилища данных – 3000 строк. Надо из него восстановить схему исходных таблиц и их структуру. Он загоняет их в GPT и получает ….. Вопрос тот же: ты уверен, что она ничего не забыла и не перепутала ? если хоть одно поле не включишь в документацию – потом … ну понятно что …

Нет не уверен. А чтобы быть уверенным надо что ? руками тщательно разобрать 3000 строк кода …

Возможно, есть задачи, в которых срочность, важнее точности, но тогда не надо «всего вот этого хайпа …».
Тоже самое касается новой опции «загрузить файл и попросить краткий пересказ или извлечь информацию».

Краткий пересказ… ChatGPT я по описанным выше причинам для этого не юзал, но YandexGPT юзал. Я ей скормил свои статьи на habr…. То «главное», что она извлекла – ерунда полная … К тому же, лично я не готов доверить кому-то извлекать краткое содержание … Я лучше сам по-диагонали пробегусь лонгрид или новую книгу, просмотрю в ускоренном режиме с перемоткой видео, но сформирую собственное важное. Навык быстро извлекать полезное из тонны информационной пыли – это персональный навык человека. Доверять это какому-то там ИИ я не буду, потому что «полезное и важное для меня» неравно полезному, главному/важному по мнению ИИ.
Извлечь информацию по запросу… Хмыкс … универсальная поисковая система по документу ? выше я уже писал, повторюсь: где гарантия, что он извлечет качественно и всё ? к тому же для нормального контекстного поиска по документу существуют нормальные математические алгоритмы … причем тут хайп вокруг ИИ …

При всем при этом, мне нравятся подборки новостей по теме, которые собирает с интернета Медиаскоп. Да, это удобно … Охватить глазами все новости во всех новостных каналах – непросто, а тут готовое саммари. В случае с новостями вопрос полноты информации не стоит, к тому же у того же Яндекса есть SearchAPI и при желании я могу написать парсер нужных мне новостей с нужной мне логикой сам.
Генеративный ИИ как замена разработчиков
Поддавшись хайпу «генеративный ИИ заменит программистов», я решил поиграть в игру: вот я джун, который знает только синтаксис Python. Мне надо написать код для решения конкретной задачи «спарсить всех подписчиков телеграмм-канала». Промпт – проще некуда ! не нужно быть профессиональным промпт-инженером. Формулировка запроса вполне четкая и конкретная.

И тут – выкатывается на рынок DeepSeek с сопуствующим ему ажиотажем. Штош. Будем писать код при помощи него – потому как судя по новостям, он круче ChatGPT, а во вторых – бесплатно.

Что получилось. DeepSeek мне выдал 10 блоков кода с развернутыми комментариями. Я как начинающий джун добросовестно скопипастил. И … не работает. Уточняющие вопросы по ошибкам, усложнили еще больше. По факту … написано/перенаписано 40 строк кода. Потрачено почти 4 часа. И ничего не работает …
Я боюсь себе представить, сколько бы денег я отдал YandexGPR или GigaChat за токены … там же по сути тарификация (грубо говоря) идет за количество символов и в вопросе, и в ответе …

Плюнул и пошел привычным мне путём … Пошел в яндекс и на поиске задал тот же самый вопрос «как на Python спарсить всех подписчиков телеграмм-канала». Пошел читать статьи что нашлись.

Как же я умилялся … Все топ-5 статей похожи друг на друга как две капли воды. Сам код везде одинаковый, комментарии к нему у авторов статей разные… Такое ощущение, что кто-то когда-то первым написал, выложил в интернет, а потом целая толпа перерайтила, выдала за своё и выложила в интернет. И DeepSeek собрал эти 5 статей и сделал мне из них выжимку … Он перемешал коды, перефразировал комментарии…. А зачем ? то есть он не пишет код сам … он тупо компилирует то, что нашел в интернете по теме … ключевое «тупо».
Изучив код (который почему то у меня тоже отказался работать) я нашел официальную документацию на конкретную библиотеку и написал работающий код …. Внимание … из трех строк. Три строки и 30 минут работы Карл !!!! вместо 4 часов с DeepSeek 40 строчек неработающего кода ….

И да, я забыл добавить, что есть нюанс … в параметрах использования библиотеки, о которых DeepSeek не предупредил (тупая железяка), а телеграмм чуть не заблокировал мне основную учетку, заподозрив во мне спамера … как известно, у ТГ нет техподдержки, и из моих знакомых никто не смог разблокировать свои учетки. Так что тупо следуя советам ИИ, я мог остаться без своей учетки ТГ … а у меня на неё работа завязана …

(занавес)
Более того … об этом особо не говорят, но в узких кругах ширится мнение, что программисты то молодцы-молодцы пишут теперь код не 2 недели, а за 2 часа НО … театральная пауза … качество кода – полное говно, он содержит ошибки (в том числе логические и алгоритмические), которые потом вылазят на проде и разбираются с ними уже другие люди (поддержка, тестировщики) – трудозатраты этих специалистов выросли в разы … на написание говнокода трудоемкость снизилась, а на его отладку и приведение в порядок – увеличилась ! Последующие доработки такого говнокода – еще более высокие трудозатраты … Но (а) доказать, что код написан с ИИ, а не кривыми руками разрабов, никак … (б) доказать, что код грязный и неудобный, и проблемы с его доработкой связаны с тем, что он создан при помощи ИИ – тоже никак .
Подытоживая. Я могу забить в поиске вопрос по коду – и получить в поисковой выдаче ссылки на страницы с ответами – выбираю stackoverflow как доверенный источник информации, и нахожу там ответ на вопрос. Альтернатива - вопрос ИИ помощнику, который по сути за тебя сделает поиск по интернету и выдаст краткий ответ (скорее всего спёртый с того же stackoverflow …). Вопрос удобства …

История номер два. Про GigaCode – типа ИИ-агент для разработчиков… Мне надо было автоматизировать мониторинг цен конкурентов на маркетплейсах. Начал с Ozon. «Напиши код на Python – как спарсить цены на карточки товаров с сайта ozon». Ни один пример не работает. Закидываю ему обратно ошибки, которые возникают. Он мне в ответ: владелец сайта поставил защиту от парсеров. Логично. Я бы больше удивился, если бы такой защиты не стояло … Вопрос: как обойти защиту от парсинга. Ответ: если владелец сайта защитил его от парсинга – не надо и пытаться !

(занавес)
Деньги как оценка успешности любого бизнес-проекта
Но давайте вернемся к главному критерию успешности технологии – деньги ! точнее прибыль !

Хайповая технология Интернет – вполне себе прибыльная ! на предоставлении доступа к Интернету и услуги на его основе – зарабатывают многие и много ! вопросов нет …

Что-то я не слышу вау-историй про то, как кто-то внедрил GPT в работу и заработал чистыми Х-млн рублей … А вот истории про просрать деньги на проектах, связанных с GPT, я слышал.
Возможно, я нахожусь в другом информационном поле … Но пока что меня окружает реклама инфобиза – научим как зарабатывать с использованием GPT … То есть зарабатывают на процессе обучения 😊

А что же сама компания OpenAI ? а она тщательнейшим образом скрывает финансовый результат от проекта ChatGPT … типа мы частная закрытая компания – не обязаны раскрывать свою финансовую отчетность … А у меня вопрос: если вы такие успешные и прибыльные – вполне себе в менталитете США кричать об этом нам всех углах, демонстрируя свой успешный успех … Но вы почему-то не кричите … Так вы наверное в убытках ! потому и молчите 😊 хотя не исключен вариант, что просто не хотят говорить о своих доходах … я вот тоже о своей зарплате никому не говорю ….

Вот кстати интересная новость в тему …. https://t.me/ai_newz/3676
И кстати, новость о том, что команда Трампа собралась потратить 500 ярдов на ИИ – пиар акция не более. (А) обратите внимание: речь идет о расходах ! не доходах ! сколько там «отмоют по пути» - вопрос 😊 (Б) сумма расходов на проект – не показатель. На проект «невидимых» самолетов Стелз они потратили 1 трлн.долларов. Это уже признанный ими самый дорогой факапный проект. По факту оказалось, что сносят их с неба вполне себе норм ! Невидимость то придумывали, чтобы в конечном счете не сбили. НО …. По факту деньги – в трубу …

Сбер и Яндекс кстати тоже не публикуют доходов от своих GPT… почему ?

Если технология успешна – она приносит деньги – формирует прибыль, что является объективным подтверждением успешности – почему об этом не говорить воткрытую и нахваливать себя – какие мы молодцы ?
GPT не способен рассуждать
А теперь самое главное: эти так называемые ИИ неспособны рассуждать ! Пример – в конце материала. Они и не смогут рассуждать, т.к. математический аппарат нейронных сетей это не предполагает. GPT не сможет выиграть ни в шахматы, ни в го.

Хайп вокруг того, что еще чуть чуть и GPT превратится в AGI – искусственный разум – может быть… Если они заложат в GPT механику рассуждений. Но механика рассуждений – это алгоритмизация, это математические методы и программирование.

Математических методов по алгоритмизации – вагон и маленькая тележка. Любое программное обеспечение – это набор автоматизированных алгоритмов. Что GPT с алгоритмической логикой будет «ах ! AGI получился» ? … ну ну …
Если говорить про шахматы. Давайте начистоту. Не компьютер выиграл у человека в шахматы. Выиграл алгоритм, запрограммированный человеком. Компьютер просто к тому времени оказался достаточно мощным, чтобы быстро перебирать комбинации. Просто он оказался быстрее ручного арифмометра. Ну, ок. Отлично ! НО компьютер не имитировал рассуждения человека ! он алгоритмически просчитывал ходы. В игру го он выиграл точно также !

Возможно, GPT сможет рассуждать как человек. Я не против. Но давайте по фактуре .. (а) примеры. (б) экономический эффект на конкретных примерах.
Так какую же полезность приносит GPT …. Я достаточно самокритичен, чтобы воспринимать альтернативную точку зрения. Я с готовностью рассмотрю примеры эффективности и результативности ВсякихТамGPT – приводите 😉

Если серьезно, я не против GPT как в свое время луддиты были против машин. Я против хайпа и утверждений, что это «вау…». Скорее всего, все эти GPT постепенно нишезируются – будут адаптированы под определенные категории задач. Примерно, как с навигаторами: для поездок по городу лучше 2ГИС, между городами – Яндекс.Карты, а для туристических походов – maps.me.
И да, там маршруты прокладываются на основе алгоритмов нейросетей. И что ! здорово ! но ведь нет ажиотаж – ах какой умный навигатор проложил дорогу….
Известное полезное
Пока что мне удалось зафиксировать две полезности

1) преодоление т.н. эффекта «чистого листа», когда у тебя есть задача, а ты не знаешь с какой стороны к ней подступиться … Задаешь вопрос: что должен содержать маркетинговый план – и тупая железяка (прошерстив заранее весь интернет 😊 ) выдает тезисно все, что она когда-то нашла в интернете … так-то удобно… есть от чего оттолкнуться.

2) наливка воды … была у нас задача – подготовить официальные документы по одному проекту. У нас получилось 10 листов текста с конкретикой. Нам сказали: эмммм что-то маловато … надо 25 листов.
Увеличивать шрифт и расстояние между строками нельзя. Мы посидели поскрипели мозгами и выдали еще 5 страниц, а дальше – ступор … что делать ? начали задавать наводящие вопросы ChatGPT – она стала выдавать много букавок, из которых мы налили воды еще на 15 листов … Получилось много, все довольны. Вот только пользы от этого документа – полный ноль ! Полностью бесполезное действо – налить 10 страниц воды … (не спрашивайте, почему и зачем 😊 надо + NDA)

Лирическое отступление: в рамках этого же проекта, как-то ночью (срочно-срочно прямо сейчас … ну по другому и не бывает) мне скидывают пакет документов и просят посмотреть. На скорости, в режиме быстрого переключения между разными проектами, не особо вникая, что же посмотреть – начинаю смотреть. И вижу хрень полную … слова и предложения – знакомые, понятные, но в сумме – какое-то говно, которое просто стыдоба какая куда отдавать. И тут меня посещает интуитивная мысль, что все это снуля написано или целиком при помощи GPT, или скомпилировано кривыми руками. Но как доказать ? Авторы этого бреда не признаются. Для ChatGPT по-моему таких сервисов нет.
У меня платная учетка в Яндекс.Cloud (что подразумевает качественную и быструю тех поддержку). Задаю им вопрос: как проверить текст написан с использованием YandexGPT ? и если да, то в каком процентном соотношении. Эдакий антиплагиат … Техподдержка закрыла обращение без ответа ….
Нежданчик
Пока я писал этот материал ....
и у Яндекса, и у Сбера появились сервисы, оценивающие материалы на предмет "подготовлены с использованием ИИ или нет"

Сам не проверял еще
Ссылки скоро добавлю
3) знакомый в техникуме написал диплом (точнее три диплома) с использованием ChatGPT. Один успешно сдал и получил «5». Два других успешно продал однокурсникам, которые тоже защитились на «4» и «5». Заработал денег особо не напрягаясь – с одной стороны. Сэкономил себе время на написание диплома. НО создал три бесполезных диплома – тупая компиляция ранее найденного в интернете – с другой стороны.

Завтра эти дипломы попадут в интернет, GPT на них обучатся, и через пару лет интернет будет набит дипломами написанными с использованием GPT, абзацы местами переставлены, синонимы заменены и так до бесконечности … будет как в детской колыбельной песенке: море, а на море - суша, а на суше – пальма, а на пальме кот сидит и видит: море, а на море – суша, а на суше – пальма (и так далее).
Возвращаясь к тезису об «отупении» моделей: сами сгенерили новый контент, сами на нём обучились, снова сгенерили, снова обучились – но интент (суть, полезность) от этого новая не появилась … Просто стало больше воды …
Пример как GPT не умеет рассуждать с неожиданным финалом …
Ночер субботы. Аккурат время кото-ламповых историй. В тему GPT-всяческих будет сказ, на событиях реальных аккурат основанный. Про сыр и мышек, кстати !

Весна сего года. Также ночер. Звонок от друга: спасите-памагите, у дочки 6й класс контрольная по математике, вопрос четвертной оценки, одну задачу решить не можем… Всё что касается детей для меня святое ! мне даже на тщеславие давить не пришлось ! Да и интеллект потренировать в тот момент я был не проч … К тому же задачка была прикольная: сколько сыра съели мышки в кладовке.

Задачка оказалась с изюминкой. Где-то часик я над ней покорпел … Еще минут 40 оформлял развернутое решение, потому как уже ночь была, а им сутра уже в школу с результатом надомноб …
И тут меня посещает гениальная мысль ! Задам ка я эту задачку GPT-всяческим. Надо сказать, что в тот момент я активно исследовал всякие ИИ на предмет «ну и какой с них прок для меня может быть …» и с другом одним у нас был околонаучный диспут на тему «полезность или все таки хайп». На мою удачу друг не спал – я ему скинул условие задачи, чтобы он попросил решить ChatGPT (именно эту ИИ я принципиально руками не трогаю – то отдельная история). А сам пошел спрашивать YandexGPT.
Результаты

ChatGPT – выдала несколько листов «рассуждений о …» но даже близко не подошла к ответу.

YandexGPT – выдала решение на полстранички НО неправильно !

«Ха !» - дополнительно утвердился я во мнении – «сколько мышки съели сыра даже посчитать не может» - в смысле – «даже задачку по математике шестого класса решить не могут».

В то время Яндекс ананонсировал поиск с ИИ – то что сейчас открыто всем бесплатно на поиске как «поиск с нейро», а тогда это была отдельная опция в Яндекс.Браузере за отдельные деньги.

Задал вопрос и ей. Мои убеждения о ИИ пошатнулись. Эта «нейро» выдала идеально правильный ответ и решение…. Призадумался я…. Внутренний голос шептал «нееее. Тут что-то не так … надо найти что ….» И тут мой взгляд зацепился за какие-то не особливо приметливые циферки в квадратиках … Тык – и я попадаю на страницу(ы) в интернете с решением задачки.
Психанул. Пошел на простой поиск Яндекса и в поисковую строку скопипастил весь текст задачки. Ёшытошы – 100500 страниц и видео с решением этой задачи …
Ремаркс: утром (точнее уже к обеду) как проспался – позвонил другу и обложил его вежливыми словами – дескать гуглить сначала надо, а потом уж людям по ночам названивать 😊
Мораль сей стори такова

0) чтобы найти решение задачи из школьного учебника и побыстрее «помочь» сделать ребенку домашку – забивайте в поисковую строку весь текст задачи – и будет счастье

1) весь промпт-инжиниринг опять сводится к утверждению Эйнштейна (вроде бы): «правильно сформулированный вопрос содержит 95 % ответа на него»

2) при наличии правильно и четко сформулированного вопроса – ответ на него будет найден в простом поиске – к тому же можно самостоятельно оценить достоверность и актуальность информации.

3) наличие правильно и четко сформулированного вопроса – не гарантия того, что КакойТоGPT выдаст правильный ответ

4) Вопрос достоверности и актуальности ответа GPT – философский
Поэтому я пока что полюбил поиск яндекса с нейро (где-то выше в этом ветке или в какой закидывал вроде небольшой мануал с принтсринами – как юзать)

(а) не хуже всяких GPT выдает результат
(б) содержит ссылки на источники
О критериях истинности и смыслах споров
У нас на работе есть стихийный чат, в котором собрались люди, которые топят «за ИИ будущее» и скептики типа меня. Чат получился очень интеллектуальный. Все люди – взрослые, с опытом, некоторые с кандидатскими и докторскими степенями.

Мы обмениваемся аргументами, по-доброму подшучиваем друг над другом …

Одно время мы скатывались в отчаяяные споры, но прерывались, когда я предлагал сначала договориться о критериях спора … Суть критериях истинности. И мы затеяли спор о критериях нашего спора 😊
Наши научные люди в итоги сказали, что даже в науке нет абсолютных критериев истины. По тому как с развитием прогресса эти критерии постоянно меняются. Простейший пример – черный лебедь Насима Таллеба. Пока не увидели в природе реально черного лебеда, считалось истинным утверждение «лебедь – белый».

А сколько и каких аргументов нужно собрать «за» и «против», чтобы пошатнуть позицию другой стороны ? а непонятно … На примере, RAG. Чтобы выносить уверенное, убедительное суждение о полезности или бесполезности этой технологии, надо
(а) опросить всех, кто делал проекты на основе RAG. Уже не решаемая задача …

(б) получить от них финансовый результат проекта и не на словах, а реальные бухгалтерские выкладки. Ага. Так они и предоставили такую информацию.

То есть получить достаточный по количеству и верифицированный по качеству набор фактов по теме не представляется возможным …

И как тогда выносить суждение ? основываясь на чужом мнении ? эммммм. Так в свое время все научные мужи утверждали, что все лебеди белые. А до этого, что земля стоит на трёх китах ..
По поводу чужого мнения был у нас замечательный пример.

Как-то ночью в упомянутом мною чате, выкладывается очередной аргумент «за»: смотрите ка, чел без инженерного образования собрал нейтронный фьюжн-реактор прямо у себя на кухне, используя AI как консультанта. И получил дейтерий.

Далее диалог в чате (кратко)
- Миша, ну ты серьезно ?
- не ну а чо. Тут и фото, и видео, и технические детали. Дейтерий вон в колбочке.
- ну ок. Я сейчас пойду на кухню, намучу в колбочке колы с коньяком и на видео скажу, что я получил тритерий. Поверишь мне на слово ?
- ээээээ. Чорт 😊
- аналогично далее. Вот на картинке что-то мигает лампочками, капельки какие-то капают. И чо ? откуда уверенность, что это именно реактор и что он именно работает. Видео с тиктока небось 😊
- тшорт … уел …
И вот неразрешимая дилема: как сегодня проверить достоверность любой новости, любой статьи ? начиная с того, что некоторые новости удаляются из ТГ-каналов через пару минут (а иногда и секунд после публикации), а некоторые потом редактируются … а добавление или удаление отдельных слов частенько меняет смысл кардинально ….

В наше сверх динамичное время при ТАКОМ информационном перегрузе, мы вынуждены доверяться чужому экспертному или авторитетному мнению … (кто-то верит новостям из телевизора 😊 кто-то новостям в ТГ-канале ТАСС). Но почему мы верим чужой экспертности ? кто сказал, что автор статьи или новости – эксперт ? Так конечно можно договориться до полного отрицания любых авторитетов и любой авторитетности 😊 а ответ то на вопрос очень прост. Мы доверяемся интуиции при выборе кому верить, а кому – нет. А еще, по Насиму Талебу, мы рискуем попасть в описанную им «ловушку», когда у нас есть некое (внимание) интуитивное убеждение, под которое мы подсознательно начинаем подбирать подтверждающие аргументы…. Кстати говоря, выбранные нами эксперты делают то же самое ! где-то осознанно, а где-то нет 😊
Ну и самое главное ….😊 допустим, мы договоримся о критериях, соберемся в одном месте и договоримся до какой-то крайней точки зрения … и что ? что изменится ? что произойдет ? Миша перестанет использовать генеративный ИИ для написания кода ? нет. Кристина перестанет загружать в chatGPT книги, чтобы получить саммари ? нет. Андрей перестанет пользоваться поиском яндекса и начнет промптить только GPT ? нет. Так к чему спорить ?
Эффект отмены чего-то как критерий нужности
А что будет, если завтра отключить все GPT ? да по-большому счету ничего не будет

А если завтра отключить интернет или сотовую связь ? 😉 то то же …
Готов подискутировать по теме ! Пишите в личку !
Made on
Tilda