{"id":14270,"url":"\/distributions\/14270\/click?bit=1&hash=a51bb85a950ab21cdf691932d23b81e76bd428323f3fda8d1e62b0843a9e5699","title":"\u041b\u044b\u0436\u0438, \u043c\u0443\u0437\u044b\u043a\u0430 \u0438 \u0410\u043b\u044c\u0444\u0430-\u0411\u0430\u043d\u043a \u2014 \u043d\u0430 \u043e\u0434\u043d\u043e\u0439 \u0433\u043e\u0440\u0435","buttonText":"\u041d\u0430 \u043a\u0430\u043a\u043e\u0439?","imageUuid":"f84aced9-2f9d-5a50-9157-8e37d6ce1060"}

Прибыльный бизнес - лгать вам об искусственном интеллекте

Как СМИ и влиятельные лица в 10 раз увеличивают свои доходы с помощью ИИ… обманывая вас.

Перевод статьи "The lucrative business of lying to you about AI".

Поднимите руку, если вы слышали одно из следующего:

  1. Если вы не используете ChatGPT, вы отстанете.
  2. Используйте эти 20 инструментов искусственного интеллекта, чтобы стать медиа-компанией, состоящей из одного человека.
  3. Зарабатывайте 10 тысяч $ в месяц используя GPT-4.

Или в ваших кругах предпочитают эти темы:

  1. Мы находимся у порога технологической сингулярности и сверхразумные модели будут представлять экзистенциальную угрозу человечеству.
  2. Вскоре придет ИИ и лишит вас работы.
  3. Такие модели, как GPT, могут причинить много вреда и разорвать духовно-нравственные связи общества.

Непосвященному, это может показаться запутанным.
С одной стороны - у нас есть люди, заявляющие, что эти модели — величайшая вещь со времен электричества и они изменят способ ведения бизнеса (вы станете миллионером, освоив ChatGPT).
С другой стороны - GenAI превратится во что-то большее и мы все превратимся в Терминаторов.
Оказывается, обучение моделей на больших массивах человеческих данных представляет собой экзистенциальный риск (интересно, что это говорит о человечестве).

Я открою вам секрет — обе эти, казалось бы противоположные позиции, достигают одной и той же цели — зарабатывание денег на вас.

В этой статье я расскажу о том, как люди и медиа-компании используют дезинформацию об ИИ — как шумиху, так и негатив — для создания атмосферы страха и обмана, чтобы сбить вас с толку и в конечном итоге извлечь ваши самые ценные ресурсы — время, деньги и ваше внимание.

Очень рекомендую эту прекрасную статью от доктора философии Nirit Weiss-Blatt. Я буду много на неё ссылаться.

7 способов неточного освещения ИИ в СМИ:

Шумиха вокруг искусственного интеллекта и его критика

Побуждение к упрощенному, двоичному мышлению

Пакетная журналистика

Антропоморфизм ИИ

Сосредоточение внимания на краях дискуссии

Замена вопросительных знаков восклицательными

Преобразование научно-фантастических сценариев в достоверные прогнозы


Как дезинформация об Искусственном Интеллекте приносит прибыль

Прежде чем углубляться в детали, давайте сделаем общий обзор того, как люди извлекают выгоду из дезинформации об ИИ.

В конечном счёте, любая форма рекламы ИИ, будь то положительная или отрицательная, делает три вещи:

1. Создает ощущение безотлагательности.
Если вы не используете GPT, вы отстанете… Наш мозг очень слаб для такого рода заявлений, поэтому в ту секунду, когда мы это слышим, наш разум спешит принять меры.
Или возьмём негативно повествующих пророков, которые убедят вас, что ИИ представляет собой экзистенциальную угрозу, которая разрушит общество.
Нет лучшего способа мобилизовать людей, чем сказать им, что что-то скоро разрушит их жизнь (либо потому, что оно настолько хорошо, что вы отстанете, если не будете его использовать, либо потому, что оно настолько плохо, что может уничтожить человечество).

2. Искажает ожидания.
Сколько людей пытаются отправить вам руководства о том, как сделать в 10 раз больше с помощью ИИ?
Если они действительно были такими продуктивными, почему они сами не применяют советы и не производят больше. Часто это связано с попыткой продать вам что-то — курс, продукт или просто своё присутствие в социальных сетях.
Сколько экспертов в области искусственного интеллекта появилось в последнее время, которые сулят изменение вашей жизни, если вы будете следить за их социальными сетями? В конечном итоге, все они утверждают, что вы (без реальных навыков) за несколько минут сделаете то, над чем люди (с реальными навыками) бьются часами.

3. Приукрашает определенные факторы.
Ответвление последнего пункта, но мы часто видим, как дезинформация приукрашает определенные части работы, игнорируя реалии ситуации.
Это используется, чтобы продать людям образ жизни. Ярким примером этого являются все курсы для предпринимателей/дневных трейдеров, которые утверждают, что они принесут вам шестизначную сумму за несколько коротких часов работы.
В области ИИ мы видим это на примерах курсов, которые за 60 дней подготовят вас "к работе в индустрии с нуля", или влиятельных людей, которые создают впечатление, что единственное требование для того, чтобы стать инженером машинного обучения, - это копирование информации из видео о LangChain или чтение блогов на Medium.

В конечном счёте, все это вызывает тройной набор проблем:

1. Дезинформация действует как отвлекающий маневр по отношению к реальным проблемам, присутствующих в этих системах.
В одном из величайших поворотов иронии судьбы — шумиха и критика, распространяемая многими «специалистами по настройке/безопасности ИИ», приводящая к безрассудному внедрению систем ИИ, потому что разработчики слишком заняты борьбой с воображаемыми демонами, не обращая внимание на реальную ситуацию.

2. Дезинформация охотится на людей, которые наиболее уязвимы для неё: новичков, людей, находящиеся в трудных жизненных ситуациях и людей ищущих пути к лучшей жизни.
Этим людям не хватает ресурсов, чтобы критически мыслить, отфильтровывать мошенничество и защищать себя, когда что-то не получается. К сожалению, многие из этих жертв убеждены, что неудача произошла по их вине, а не в результате завышенных ожиданий от обещаний.

3. Рынок наводнен людьми с половинчатым пониманием тем и областей. Этим людям часто не хватает базовых фундаментальных знаний, чтобы определить пробелы в своих навыках и последовательно улучшать их.
Это усугубляет ситуацию для всех вовлечённых, заинтересованных сторон, включая тех людей, которые сейчас застряли в области, не соответствующей их способностям/интересам и всегда находящимися на шаг позади.

Гуру, продающие вам всё это, не заботятся об этом. Они продают вам ложные обещания и оставляют вас самих разбираться с последствиями. Сейчас я приведу несколько вопиющих примеров, демонстрирующих то, что мы обсуждали и то, как это вызывает серьезные проблемы.

AI Hype & Criti-Hype

AI Hype: Самоуверенные технари хвастаются своими системами ИИ (AI Boosterism). [«Классический пример бустеризма — это петербуржец, который приезжает в Москву и говорит, что Питер самый лучший город, столица мира»].

AI Criti-Hype: Самоуверенные обличители, которые обвиняют системы ИИ в злодеяниях (AI Doomerism).

Как шумиха вокруг искусственного интеллекта используется для заработка на вас

В конечном счёте, оба вида шумихи вокруг ИИ привлекают внимание и вызывают у вас эмоциональное раздражение, создавая идеальные условия для продажи.
Давайте посмотрим, как сторонники обоих видов ажиотажа извлекают выгоду из своих соответствующих видов шумихи.

Как заработать на искусственном интеллекте

Люди, подпитывающие цикл шумихи вокруг ИИ, получают от этого несколько ключевых преимуществ.
Во-первых, возьмите влиятельных лиц LinkedIn, таких как Зейн Кан.
Раньше он называл себя специалистом по маркетингу и продуктивности в LinkedIn, но после появления ChatGPT, Зейн превратился в окончательную форму всех современных братьев, занимающихся самосовершенствованием, — в гуру ChatGPT.
Теперь, называя себя «Парень с искусственным интеллектом», Зейн рассказывает вам, как увеличить вашу производительность в 10 раз, с помощью 20 новых инструментов искусственного интеллекта.
Взгляните на недавний пост Зейна, где он объявил о смерти поиска и Google (и это не в первый раз).

Если вы в теме ИИ, это должно вас сразу насторожить.
И я мог бы рассказать о том, что у Google есть собственные очень продвинутые LLM, или о том, что поисковые и языковые модели выполняют очень разные задачи.
Но мы сделаем это проще. Давайте посмотрим на первый революционный плагин, на который зазывает Зейн — AskYourPDF, который отвечает на вопросы, извлекая информацию из документа в PDF.
Взгляните на следующее изображение из большой статьи Microsoft о GPT-4 [статья на Хабре], где они утверждали, что GPT-4 демонстрирует AGI. В своем собственном документе они очень ясно дали понять, что даже с очень явными подсказками и простой информацией, GPT всё выдумывает. А теперь расскажите, пожалуйста, о надёжности инструмента AskYourPDF...
Чтобы проверить подлинность выходных данных, вам всё равно придётся читать текст, что сводит на нет смысл искусственного интеллекта.

Чёт не понял, что там не так ;)

Если вы хотите обсудить это изображение и то, что оно показывает нам об обучении LLM, загляните в наше обсуждение LinkedIn.

Скриншот поста для обсуждения, по вышестоящей ссылке.

Но, возможно, команда AskYourPDF сделала то, что не удавалось никому другому, и исправила галлюцинации LLM (если вы хотите знать, почему происходят галлюцинации, прочтите другую статью этого автора). И они были действительно настолько хороши?
Поэтому я решил проверить всё сам. Я зашел на их веб-сайт и загрузил свою бесплатную электронную книгу, созданную путем компиляции нескольких моих статей об искусственном интеллекте. Затем я задал простой вопрос, чтобы узнать, какие бесплатные GPT-конкуренты вы можете использовать (чтобы увидеть ответ, прочитайте эту статью или загрузите книгу по ссылке ранее), намеренно используя формулировку из электронной книги.
И это потерпело неудачу.

Каковы 5 бесплатных конкурентов Chatgpt? --- К сожалению, в статье упоминается только 5 бесплатных конкурентов ChatGPT, о которых вы должны знать в 2023 году, но не приводятся имена этих конкурентов. [В статье упоминаются имена]

Я тестировал это несколько раз, и инструмент всегда застревал на чем-то простом. В основном, вокруг главы о конкурентах.

Эта проверка заняла у меня 3 минуты. И это не похоже на супернишевую проблему - мы знаем о галлюцинациях трансформеров уже год, не меньше (это когда я столкнулся с этим, я уверен, что другие знают об этом дольше). Кто-то, называющий себя «Парень с искусственным интеллектом», должен хотя бы сделать заявление об отказе от ответственности. Так почему же нет?

Оказывается, на этом можно заработать хорошие деньги.
У меня сравнительно небольшой информационный бюллетень (33 000 подписчиков), но мне предлагали вознаграждения на сумму около 6 000 долларов США в месяц, для продвижения этих продуктов. Если вы хотите узнать, сколько Зейн берет за свою рекламу, посмотрите ниже.

Вы можете найти его профиль здесь

Как истинный эко-капиталист, я духовно резонирую со стремлением общества потребления монетизировать любой жизненный опыт и продавать его как услугу по подписке.
Я ничего не имею против того, чтобы Зейн монетизировал свой контент (я сам так делаю). Однако Зейн делает это с помощью шумихи, дезинформации и полного игнорирования нюансов.

Это мошенничество, и это то, что, я считаю, следует обнародовать.

Отсутствие раскрытия информации о каком-либо из продуктов ИИ, которые он продвигает (как о том, что они спонсировали его, так и о раскрытии рисков, связанных с этими продуктами), чрезвычайно проблематично и указывает на два варианта:

1. Зейн знает о рисках этих продуктов, но предпочитает не упоминать о них.

2. Зейн недостаточно разбирается в этих продуктах, чтобы подробно обсуждать их.

Ни то, ни другое, не очень хорошо смотрится.
Зейн — далеко не единственный влиятельный человек, вышедший на свет, для попытки извлечь выгоду из шумихи вокруг ИИ.
Откройте социальные сети, и увидите множество сообщений, рекламирующих GPT/Gen-AI как волшебную палочку для всего: от увеличения продаж, помощи в оценке плюсов и минусов сложных решений, до помощи в построении целого бизнеса и изучения самых сложных идей.

Некоторое время назад я рассказал, как влиятельные лица использовали шумиху вокруг Deep Learning, чтобы продавать вам ложные обещания.
В нём я рассказал о видео — СОЗДАЙТЕ и ПРОДАВАЙТЕ свою собственную модель ИИ! От 500 до 10 000 долларов в месяц (очень просто!), созданный популярным программистом на YouTube, Code with Ania Kubów (и курсы, обещающие научить вас науке о данных за 6 месяцев). В конечном счёте, эта шумиха является следующим этапом, когда вам продают ложные обещания магического ИИ, чтобы продать вам продукты, курсы и т. д.

Чтобы узнать больше об этих мошенничествах, ознакомьтесь с тем, как инфлюенсеры воруют у вас.

Я закончу этот раздел наблюдением.
Весь цикл ажиотажа вокруг GPT/Gen-AI напоминает мне мошенничество с криптовалютами 2021–2022 годов.
Они оба следуют одному и тому же сценарию — создают много ажиотажа вокруг технологии/идеи, которую понимают немногие.
Продвигают эти продукты через лжепророков в социальных сетях, притворяющихся экспертами в этой области (Graham Stephan и его коллеги в компании Crypto, Зейн и его собратья по ИИ).
Используют социальные доказательства, чтобы скрыть любые зияющие дыры в фундаментальных решениях.
И точно так же, как мошенничество с Crypto, обычные люди, такие как вы или я, будут теми, кто облажался.
Однако последствия будут гораздо хуже, поскольку в отличие от крипто - ИИ уже безоглядно интегрируется в различные части общества.

Потому что эти люди, часто используют своё социальное доказательство, для продажи своей продукции.
Они полагаются на масштабные рекламные кампании, в которых они платят многим знаменитостям, торговым точкам и другим влиятельным лицам за продвижение своей продукции.
Обычные люди, следящие за этими людьми/организациями, натыкаются на эти рекламные акции и гуглят оригинальный продукт. Там они видят платные релизы + огромное количество подписчиков и думают, что этот продукт является законным.
И затем люди вкладывают в этот проект реальные деньги, что ещё больше увеличивает ажиотаж вокруг этого, формируя сильную петлю обратной связи.

Давайте теперь рассмотрим двойника этого — AI Criti-Hype.

Как люди наживаются на критике искусственного интеллекта

Как и в случае с AI-Hype, Criti-Hype - это очень прибыльный бизнес.
Если люди уже верят, что ИИ всемогущ, их несложно убедить, что ИИ придёт и разрушит их жизнь.
Печально то, что эти люди часто позиционируют себя как голос разума противостоящий шумихе. Позиционируя себя, как бунтаря контркультуры, легко привлечь внимание, создаваемое на шумихе вокруг ИИ и продать свои страшные риски безопасности.
Схема игры остаётся прежней - создайте шумиху, используйте её, чтобы заработать на этом сладком влиянии в социальных сетях, с помощью выступлений, продуктов и курсов, и наслаждайтесь своей славой и богатством. Вот почему мы видим, как известные имена публикуют статьи типа "ИИ подобен человеческому интеллекту". Потому что это возбуждает, вызывает у людей эмоциональное раздражение и в итоге генерирует клики.
Идеально, когда вы хотите им что-то продать.

«Мы только что столкнулись с инопланетным разумом, здесь, на Земле.

Мы мало что знаем о нём, кроме того, что он может уничтожить

нашу цивилизацию». В гостевом эссе Юваль Ной Харари утверждает, что

Искусственный интеллект изменит ход истории человечества.

Печально то, что ИИ несет вполне реальные риски и вред обществу. Взгляните на эту красивую таблицу, дающую нам полный обзор некоторых рисков, связанных с ИИ...

Но, вернёмся к сторонникам AI Criti-Hype, которые пытаются предостеречь вас от опасностей ИИ. Редко, если вообще когда-либо, они говорят об этих проблемах и о том, какой вред они причиняют прямо сейчас. Вместо этого они предпочитают сосредоточиться на фантастических сценариях, которые имеют мало общего с реальностью.

В качестве яркого примера такой ситуации, вспомните *Это открытое письмо*, в котором говорится о необходимости приостановить разработку моделей ИИ, более мощных, чем GPT-4.
В проницательной статье "Вводящее в заблуждение открытое письмо, об опасностях научно-фантастического искусственного интеллекта, игнорирующего реальные риски" авторы совершенно справедливо указали на то, что письмо и его сторонники вводят разговор в заблуждение, уводя от сути вопроса. У них есть прекрасная таблица, суммирующая контраст между реальными и спекулятивными рисками, связанными с этими инструментами искусственного интеллекта.

Ознакомьтесь с моим анализом "Почему пауза в ИИ ошибочна".

Страх - мощный маркетинговый инструмент, а критика - всего лишь маркетинговая уловка для привлечения внимания и власти.
Он используется, чтобы замедлить развитие, сосредоточить власть над ИИ, в руках определенных групп и заставить обычных людей бояться этой пугающей новой вещи, от которой мы должны быть защищены. Взгляните на это письмо, которое получил Ян Лекун о том, как ИИ-думеризм разрушил жизнь человека...

Короче говоря, чуть более 2 лет назад, я, думскроллил о сценариях выхода ИИ из-под контроля, читая статьи на Lesswrong о типичном аргументе скрепки; придёт сверхразум, вы скажете ему «сделай меня счастливым» и бум, ИИ стимулирует часть вашего мозга, которая производит дофамин навечно.

Это спровоцировало неимоверно серьёзную паническую атаку, когда я, фактически отказался от жизни, из-за страха перед каким-то мошенническим ИИ, который будет поддерживать меня в живых во веки веков. Каждый раз, когда я пытался противостоять своему страху, мысль о вечной жизни против моей воли переполняла меня. Я каким-то образом закончил школу, будучи почти парализованным 24/7, в течение всего года. Хотя симптомы тревоги остались и я не могу ходить в школу или что-нибудь делать, недавно я вновь обрёл надежду на то, что моя жизнь не обязательно должна заканчиваться на этом.

- Подобно тому, как позитивный хайп разоряет людей, думеризм так же наносит людям серьёзный вред.

Одно должно быть ясно: оба вида ажиотажа, в конечном итоге приводят к одному и тому же результату. И они действуют по одинаковой схеме, для заманивания вас в ловушку своих циклов рекламы. Прежде чем мы закончим, есть ещё один момент, касающийся дезинформации, который я хотел бы затронуть: как дезинформация скрывает реальные проблемы с системами. Этот раздел особенно важен для активных пользователей Instagram, читающих это, поскольку вы все часто вносите свой вклад в эту ситуацию.

Как дезинформация скрывает реальные проблемы системы

Когда дезинформация доминирует в обсуждении темы, добросовестные дебаты по улучшению систем становятся трудновыполнимыми.
Возьмём пример AI Art, который был любимым хобби в Интернете до того, как ChatGPT вышел в свет.
Я видел множество людей, которые критиковали эти системы создания картинок, с помощью ИИ, утверждая, что они "копируют" людей-художников, в своих наборах данных, и что генераторы изображений, такие как Midjourney или Stable Diffusion, просто копируют свои обучающие образцы и вносят в них незначительные изменения. Эти люди хотели добиться того, чтобы художники получали компенсацию за это.

Если вы понимаете, как работают генераторы изображений, утверждения такого рода не соответствуют действительности. И это вдвойне прискорбно, потому что при генерации изображений, происходит фактическое воровство у художников, только не так, как утверждают эти активисты в Интернете (реальный метод включает использование некоммерческого прикрытия для обхода закона об авторском праве, что гораздо тоньше, чем простое воровство).
Фокусируясь на упрощенном "ИИ ворует", вы облегчаете коррумпированным системам отвод критики на семантике и технических деталях. Если цель - добиться реальных изменений, это не идеальный вариант.
Для тех, кто интересуется тем, как на самом деле происходит воровство и что можно сделать, чтобы это исправить - читайте статью "Художники создают искусство ИИ - разве они не должны получать компенсацию?", которую я написал в "TheGradient".

К сожалению, в наши дни мы наблюдаем то же самое с искусственным интеллектом.
Самые громкие голоса - это те, кто продаёт шумиху, и это влияет на реальную ситуацию.
Надеюсь, мы увидим анализ от более здравомыслящих людей, которые смогут противостоять этому.
А пока у вас есть руководство к действию, которое вы можете использовать, чтобы начать свой собственный мини-цикл шумихи.

Для послевкусия - вот это вот заберёт у вас работу.

У ChatGPT на пол-извилинки больше, чем у GigaChat ;)

"Искусственный интеллект" - сообщество на VC.ru об искусственном интеллекте и сервисах: ChatGPT, Midjourney, Stable Diffusion, DALL-E 2. Prompt Engineering.

0
22 комментария
Написать комментарий...
Светлана

Абсолютно верно, если Гугл дает много вариантов поиска, то ИИ выдает единственный вариант, часто сомнительный и не дает выбора. Главные недостатки ИИ фальсификация информации и отсутствие альтернативы и выбора. Назойливый пиар ИИ в СМИ реально задобал.

Ответить
Развернуть ветку
Саша G
Автор

Главный недостаток нейросетей - они не понимают о чем ведут речь, для LLM нет разницы, между тем, чтобы сказать что-то правдивое, что-то ложное или полную чепуху.
Bing даёт ответ и ссылки на ресурсы, по заданному вопросу.

Ответить
Развернуть ветку
Alexey Ivanov
Bing даёт ответ и ссылки на ресурсы, по заданному вопросу
для Bing нет разницы, между тем, чтобы выдать ссылку на что-то правдивое, что-то ложное или полную чепуху

Кхем, кажется что-то пошло не так...

Ответить
Развернуть ветку
Саша G
Автор

Ой ;)
Ну всё-таки в бингаи шансов поймать живую ссылку побольше, чем в чатгпт, поэтому и упомянул его. Не использую ни то, ни другое, плач за битые ссылки слышал на Реддите.
Кстати Бинг стал поиском по умолчанию в чатгпт
https://blogs.bing.com/search/may_2023/Bing-at-Microsoft-Build-2023

Ответить
Развернуть ветку
Vlad

Автор как-то упустил из виду, что параллельно с хайпом вокруг ИИ, полно примеров его реального продуктивного использования, и есть много сфер, где использование ИИ гораздо продуктивнее, и выгоднее, чем использование ресурсов человека.
А если не нравится результат, который выдает GPT, посмотри внимательно запрос - может ты дал машине слишком мало деталей и конкретики? Качество запроса определяет качество ответа.

Ответить
Развернуть ветку
Николай Замотаев
А если не нравится результат, который выдает GPT, посмотри внимательно запрос - может ты дал машине слишком мало деталей и конкретики? Качество запроса определяет качество ответа.

И тут мы приходим к тому, что люди в принципе плохо задают вопросы - после того, как вы знаете достаточно, чтобы задать правильный вопрос - самому написать решение быстрее, чем заниматься психотерапией для нейросетки.

И тут есть вторая проблема - весь такой софт может "галлюцинировать", и чтобы отличить галлюцинации от реальности - надо владеть темой. А тут мы приходим к исходному вопросу - при недостаточном качестве вопроса задающий не может определить - это галлюцинация или нет. А при достаточном качестве вопроса - весь результат всё равно придётся ревьювить.

Ответить
Развернуть ветку
Alexey Ivanov
после того, как вы знаете достаточно, чтобы задать правильный вопрос - самому написать решение быстрее, чем заниматься психотерапией для нейросетки

Пчел, я вот не умею рисовать. Палка-палка-огуречик - мой потолок. И вот как интересно выходит: задать запрос для нейронки и получить классный арт - легко. А вот самому нарисовать (при полном понимании правильного вопроса) - никак.

Ответить
Развернуть ветку
Николай Замотаев

Не, к арту/картинкам вопросов нет, хотя там тоже забавно.
А вот с текстами, если это не "фантастика" - всё плохо. Если тексты структурированные или с необходимостью внимания к деталям (как в программировании) - всё становится ещё хуже.

Ответить
Развернуть ветку
Alexey Ivanov
Не, к арту/картинкам вопросов нет

Ну вот видите. Хоп, и уже вопросов нет. Я вот готов на них молиться. Потому что раньше мне 1 хорошая картинка обходилась в 50$ (а чаще в 100+) + тонна моего времени на общение с "художниками".

А сейчас я ее получаю в среднем за 11,5 минут (специально замерял) и 0,4$ на картинку

Ответить
Развернуть ветку
Николай Замотаев

Проблема с картинками в том, что от нейросетки очень характерный "стиль".
Через какое-то время он будет опознаваться примерно так же, как текущий вечный "corporate memphis"

Ответить
Развернуть ветку
Alexey Ivanov

Портретный стиль у них есть. Пейзажи и натюрморты - хз, не эксперт, но на первый взгляд не видно

Ответить
Развернуть ветку
Светлана

Вы не в состоянии проверить правдивость выданной информации. Например человек запросил 5 рассказов про устрицы. Были выданы рассказы несузествующих авторов. Т.е. что ИИ сочинил сам, а что реально существует проверить невозможно, Это зависит только от желания и целей владельца ИИ.

Ответить
Развернуть ветку
Николай Замотаев

Проверить можно, вопрос в затратах энергии и денег на это.
Просто вопрос в том, что в таком раскладе быстрее будет написать самому.

Ответить
Развернуть ветку
Светлана

Ну видите у нас разные цели. У вас выдать быстро любой текст по запросу , у меня получить достоверную и действенную информацию.

Ответить
Развернуть ветку
Vlad

Очень много теории ниочем. Я написал конкретно о том, что ChatGPT позволяет продуктивно создавать что-либо, быстрее и лучше, чем человек. Если не согласен - вот пример, предлагаю оценить его качество и определить, что создал человек, а что - GPT. https://1ai.es/product/contentcraft-unleash-the-power-of-ai-in-content-creation/

Ответить
Развернуть ветку
Николай Замотаев

Про медицинский пример в статье:
там две проблемы:
1. нейросетка нагаллюцинировала BMI (которого НИГДЕ нет в исходных данных - рост есть, а веса нет, его не с чего считать)
2. history of depression не подразумевает, что депрессивный эпизод есть сейчас. А нейросетка утверджает, что он есть.

Ответить
Развернуть ветку
Qnoc

Пиздец, просто гигатонны воды, а свелось все к тому, что ИИ расхайплен, перечислению всем уже известных проблем, и продукты на его основе рекламируют не бесплатно. Время потраченное на чтение этого океана с теориями заговора о рекламе мне к сожалению никто не вернёт уже, в следующий раз попрошу нейросетку в браузере пересказать покороче

Ответить
Развернуть ветку
Саша G
Автор

"перечислению всем уже известных проблем" - реально всем?
А хули тогда хомячки продолжают инфоИИгавно употреблять.

Ответить
Развернуть ветку
Alexey Ivanov

Кек. И наш претендующий чуть ли не на научный уровень автор с одного неудобного коммента вернулся на привычный уровень провинциальной гопоты. Иронично...

Ответить
Развернуть ветку
Саша G
Автор

lol, дядя, автор индус, а я всего лишь перевёл его статью и добавил ссылок, для большего понимания написанного.
Если написавший выше комментарий человек, настолько в теме, и вчитывался в каждую букву, а не пробежался по заголовкам/абзацам и от этого порвался - не, не жаль.

Ответить
Развернуть ветку
Генератор случайных мыслей

Везде обман, везде мне лгут(((

Ответить
Развернуть ветку
Саша G
Автор

Бандиты, потому что ;)
https://youtu.be/OzbueC3GmMI

Ответить
Развернуть ветку
19 комментариев
Раскрывать всегда