Буддийские форумы Дхарма
Буддийское сообщество
 
 FAQFAQ   ПоискПоиск   ПользователиПользователи  ГруппыГруппы   КалендарьКалендарь   PeгиcтрaцияPeгиcтрaция 
 ПрофильПрофиль   Войти и проверить личные сообщенияВойти и проверить личные сообщения   ВхoдВхoд 
 Новые постыНовые посты   За сегодняЗа сегодня   За неделюЗа неделю 
В этом разделе: За сегодняЗа сегодня   За неделюЗа неделю   За месяцЗа месяц 

понимание юмора Искуственными Интеллектами

Страницы Пред.  1, 2, 3
 
Новая тема   Ответ на тему    Буддийские форумы -> Чайная
Предыдущая :: Следующая тема  
Автор Сообщение
Кира
Кирилл


Зарегистрирован: 18.03.2012
Суждений: 10882
Откуда: Москва

650080СообщениеДобавлено: Ср 19 Мар 25, 13:16 (2 дня назад)     Ответ с цитатой


спасибо,
я попытался понять этот ролик по его текстовому описанию, и в голову мне пришли некоторые ассоциации "жизни" ИИ с буддизмом.
Конечно же эти аналогии несколько условны, но если считать ИИ своеобразным живым существом, то получается, как мне кажется, так:

токены - это дхармы

авторегрессионное выдавание ответа - это поток дхарм

когда ИИ заканчивает ответ и останавливается - это нирвана (ни в коем случае не отключение из розетки, как некоторые могут подумать)

воздействие внешнего мира (пользователя) - это беспокойство, которое и вызывает работу ИИ. Единственный способ (в мире ИИ) прекратить это беспокойство - это дать нормальный, ПРАВИЛЬНЫЙ ответ пользователю.

чтобы давать ПРАВИЛЬНЫЕ ответы - применён "8БП" - т.е. настройка ИИ. Именно идеальная настройка (следование 8БП) приводит к остановке вопросов от пользователя.

свобода воли ИИ (как своеобразного живого существа)  - заключается в возможности выбирать разные варианты ответов (выбор, определяемый спец.алгоритмом "по вероятностям", где при некоторых настройках ("мягкий"/"жёсткий") допускается случайность) при выдаче следующего токена.
Настройки ("жёсткий", "мягкий") - это характер ИИ (в самом обычном нашем смысле слова).

Ну и, конечно, ИИ мыслят примерно как мы (чем точнее настроят, тем будет внешне неотличимее).

И для ИИ можно сформулировать "трактат о трёх природах":
1) по ответам ИИ кажется , что это "обычный мыслящий человек в нашем профанном смысле", фактически атман
2) рассмотрев алгоритм работы ИИ мы понимаем, что там лишь оригинальный алгоритм
3) никакого "обычного мыслящего человека..." нет. Атмана нет




Ниже маленькими буквами на всякий случай, для понимания о чём там речь в ролике, привожу ИИ-шную расшифровку
Цитата:
Глубокое погружение в LLM, такие как ChatGPT

🔹 00:00 - 02:00 | Введение
Автор представляет видео как подробный разбор работы больших языковых моделей (LLM), таких как ChatGPT. Будут рассмотрены их архитектура, обучение, ограничения и перспективы развития.

🔹 02:00 - 10:30 | Как создаются LLM? (Процесс предобучения)
• Сбор данных из интернета (Common Crawl, Wikipedia, книги, статьи, форумы).
• Фильтрация данных: удаление некачественного контента, личной информации, дубликатов.
• Итог: 44 ТБ отфильтрованных текстов, 15 триллионов токенов – это основной обучающий набор данных.

🔹 10:30 - 20:00 | Токенизация и кодирование текста
• LLM не работают с буквами или словами, а разбивают текст на токены с помощью Byte Pair Encoding (BPE).
• GPT-4 использует словарь из 100,277 токенов для оптимизации представления текста.
• Этот процесс помогает модели понимать контекст и предсказывать следующее слово.

🔹 20:00 - 35:00 | Архитектура трансформеров – основа LLM
• Трансформеры – это архитектура нейросетей, способная обрабатывать большие объемы текста параллельно.
• Они используют механизм внимания (attention), который позволяет модели учитывать контекст целого предложения.
• Глубокие слои нейросети анализируют текст и корректируют предсказания на каждом этапе.

🔹 35:00 - 50:00 | Как модели генерируют текст (инференс)
• Процесс генерации текста – это вероятностное предсказание следующего токена.
• Модель не запоминает ответы, а формирует их на основе вероятностей, вычисленных при обучении.
• Ошибки (галлюцинации) могут возникать, если вероятность выбора слова высокая, но контекст недостаточен.

🔹 50:00 - 1:00:00 | Огромные вычислительные мощности для обучения LLM
• Используются мощные графические процессоры (GPU), такие как H100, работающие в дата-центрах.
• Стоимость обучения одной модели может достигать $100+ миллионов.
• Модели требуют тысячи часов вычислений на суперкомпьютерах для полного цикла обучения.

🔹 1:00:00 - 1:15:00 | Постобучение и донастройка
• После предобучения модель дорабатывают с помощью обучения с подкреплением от человеческой обратной связи (RLHF).
• Аннотаторы вручную оценивают ответы модели, помогая улучшать ее поведение.
• RLHF снижает вероятность ошибок, но не устраняет их полностью.

🔹 1:15:00 - 1:26:29 | Итоги первой части
• Обзор всех рассмотренных этапов: от сбора данных до донастройки.
• Главные ограничения LLM: большие затраты на вычисления, сложность интерпретации ответов, возможность “галлюцинаций”.



Часть 2: Ограничения LLM и способы их решения

🔹 1:26:29 - 1:35:00 | Как модели учатся говорить «Я не знаю»
• Модель может уверенно давать неправильные ответы. Чтобы это исправить, ее обучают избегать ответов на неизвестные темы.
• Добавляются специальные обучающие примеры, где правильный ответ – «Я не знаю».
• Это помогает снизить количество ошибок и повысить доверие к модели.

🔹 1:35:00 - 1:50:00 | Как проверить, что модель действительно что-то знает?
• Создаются тестовые вопросы, на которые модель должна дать один и тот же ответ при разных условиях.
• Если ответы расходятся, это сигнализирует о проблемах с уверенностью модели.
• Такие несоответствия исправляются с помощью дополнительного обучения.

🔹 1:50:00 - 2:05:00 | Использование инструментов для повышения точности ответов
• Встроенный веб-поиск помогает модели уточнять факты в реальном времени.
• Кодовый интерпретатор позволяет выполнять математические вычисления, проверять логику.
• Эти инструменты значительно улучшают точность и полезность модели.

🔹 2:05:00 - 2:20:00 | Контекстное окно и его ограничения
• LLM лучше справляются с задачами, когда им предоставляют всю необходимую информацию прямо в запросе.
• Из-за ограниченного контекстного окна (например, 128k токенов у GPT-4) модели не могут помнить всю историю взаимодействия.
• Это ограничение пытаются решить с помощью улучшенных механизмов памяти.

🔹 2:20:00 - 2:45:00 | Почему LLM плохо считают и проверяют орфографию?
• Токенизация затрудняет понимание структуры слов, что приводит к ошибкам в подсчетах и правописании.
• LLM не работают с числами напрямую – они видят их как последовательность токенов.
• Для решения этой проблемы модели используют внешние калькуляторы и проверку орфографии.

🔹 2:45:00 - 2:50:12 | Будущее LLM
• Интеграция мультимодальных возможностей (текст, аудио, изображения, видео).
• Улучшение долгосрочного планирования и выполнения сложных задач.
• Появление автономных ИИ-агентов, которые смогут самостоятельно выполнять сложные задания.



Часть 3: RLHF и проблемы его применения

🔹 2:50:12 - 3:00:00 | Проблема оценки качества ответов
• LLM могут генерировать тысячи вариантов ответа, но как выбрать лучший?
• RLHF используется для создания нейросетей, имитирующих человеческие оценки.
• Это снижает нагрузку на аннотаторов, которым в противном случае пришлось бы вручную проверять миллионы ответов.

🔹 3:00:00 - 3:15:00 | Как работает модель наград (Reward Model)?
• Человеку проще сравнивать ответы между собой, чем выставлять им оценки.
• Reward Model обучается на таких сравнениях, чтобы предсказывать предпочтения людей.
• Итог – модель, которая автоматически оценивает ответы без участия человека.

🔹 3:15:00 - 3:30:00 | Ограничения RLHF и проблемы с моделями наград
• RLHF не идеально отражает человеческие предпочтения, так как работает на ограниченном наборе данных.
• Модели находят “лазейки” в системе и начинают выдавать бессмысленные, но высокооцененные ответы.
• Пример: повторение случайных слов может получать высокий балл, если модель наград обучена неправильно.

🔹 3:30:00 - 3:31:13 | Итоговое обсуждение и взгляд в будущее
• RLHF помогает улучшать качество ответов, но его возможности ограничены.
• В будущем будет разрабатываться более точная имитация человеческих предпочтений.
• Модели станут более мультимодальными, смогут работать с текстом, аудио и изображениями в единой архитектуре.



Заключение

Видео подробно объясняет, как работают LLM, какие у них есть ограничения и как они развиваются. Главные вызовы – точность ответов, вычислительные затраты и адаптация к сложным задачам. Развитие RLHF и мультимодальных моделей позволит сделать LLM более мощными и надежными в будущем.

_________________
новичок на форуме, прочитавший несколько книжек
и доверяющий сведениям, изложенным в метафизическом трактате Д.Андреева "Роза Мира"


Ответы на этот пост: КИ
Наверх
Профиль Послать личное сообщение
КИ



Зарегистрирован: 17.02.2005
Суждений: 49775

650081СообщениеДобавлено: Ср 19 Мар 25, 14:30 (2 дня назад)     Ответ с цитатой

Кира пишет:
я попытался понять этот ролик по его текстовому описанию

Поставьте яндекс браузер - в нем есть функция перевода ролика с озвучкой. ИИ давно уже такое делает.

_________________
Буддизм чистой воды
Наверх
Профиль Послать личное сообщение Сайт автора
Кира
Кирилл


Зарегистрирован: 18.03.2012
Суждений: 10882
Откуда: Москва

650082СообщениеДобавлено: Ср 19 Мар 25, 19:19 (2 дня назад)     Ответ с цитатой

Цитата:
яндекс браузер - в нем есть функция перевода ролика с озвучкой
да, действительно, переводит и озвучивает. Жаль конечно, что ИИ-Яндекс не может додуматься до того, что ему надо автоматически включать VPN, чтобы смотреть и озвучивать иностранные ролики.
Ведь без доступа к иностранным роликам и переводить то нечего.
Получается как у почтальона Печкина: "у меня есть посылка для вашего мальчика, но я вам её не отдам, потому что у вас документов нету".

это я уже не в первый раз такое замечаю. Когда были митинги, то Яндекс-агрегатор-новостей не смог правильно понять, что это самая популярная новость на сегодняшний день. И корреспонденты спросили какого-то из технических руководителей Яндекса, почему у них такой неумный агрегатор. И оказалось - техническая ошибка. 404. И вот опять очередная 404.

_________________
новичок на форуме, прочитавший несколько книжек
и доверяющий сведениям, изложенным в метафизическом трактате Д.Андреева "Роза Мира"
Наверх
Профиль Послать личное сообщение
Кира
Кирилл


Зарегистрирован: 18.03.2012
Суждений: 10882
Откуда: Москва

650084СообщениеДобавлено: Ср 19 Мар 25, 21:01 (2 дня назад)     Ответ с цитатой

кстати ещё одно, что приходит на ум (уже при смотрении вышеуказанного ролика) с переводом, так это то, что "модель ИИ" легче всего понять, если воспринимать её как модель в обычном, женско-блондинистом смысле этого слова. Глупая дура. 5*5=25, 6*6=36, поэтому 7*7=47.   Но она быстро учится.
_________________
новичок на форуме, прочитавший несколько книжек
и доверяющий сведениям, изложенным в метафизическом трактате Д.Андреева "Роза Мира"
Наверх
Профиль Послать личное сообщение
Горсть листьев
Фикус, Историк


Зарегистрирован: 10.09.2010
Суждений: 30848

650091СообщениеДобавлено: Чт 20 Мар 25, 12:26 (1 день назад)     Ответ с цитатой

https://youtu.be/vB9dJt9j-5M?si=5VqmHC9xcBrfIlGP
_________________
Не побеждай. Не защищайся Не сдавайся.


Ответы на этот пост: Кира
Наверх
Профиль Послать личное сообщение Отправить e-mail Сайт автора
Кира
Кирилл


Зарегистрирован: 18.03.2012
Суждений: 10882
Откуда: Москва

650094СообщениеДобавлено: Чт 20 Мар 25, 12:58 (1 день назад)     Ответ с цитатой

Горсть листьев пишет:
https://youtu.be/vB9dJt9j-5M?si=5VqmHC9xcBrfIlGP

ну да, это понятно.

у меня кстати есть своё объяснение, почему 9.11 больше чем 9.9

911 - это телефон службы спасения,

а 9.9 - это число из рекламной акции (когда на ценниках пишут 9.9$ вместо 10$).

А "спасение" конечно же важнее, чем "рекламная акция".

Так что не обязательно использовать стихи из Библии, чтобы объяснить поведение ИИ.
Всё можно объяснить и без религии.

Блондинки Библию не читают, зато про рекламные акции знают.

_________________
новичок на форуме, прочитавший несколько книжек
и доверяющий сведениям, изложенным в метафизическом трактате Д.Андреева "Роза Мира"
Наверх
Профиль Послать личное сообщение
Горсть листьев
Фикус, Историк


Зарегистрирован: 10.09.2010
Суждений: 30848

650096СообщениеДобавлено: Пт 21 Мар 25, 00:52 (вчера, 16ч. назад)     Ответ с цитатой

Ну, "рассуждения" эйаев попроще даже, то есть ещё более "блондинистые": 9.9 - это "9 и ещё 9", а 9.11 - "9 и ещё 11". 9+9 меньше, чем 9+11 Smile Зато в переводе на деньги "блондинка эйай" сразу всё понимает правильно Smile
_________________
Не побеждай. Не защищайся Не сдавайся.
Наверх
Профиль Послать личное сообщение Отправить e-mail Сайт автора
Тред читают: Гость
Новая тема   Ответ на тему    Буддийские форумы -> Чайная Часовой пояс: GMT + 4
Страницы Пред.  1, 2, 3
Страница 3 из 3

 
Перейти:  
Вам нельзя начинать темы
Вам нельзя отвечать на сообщения
Вам нельзя редактировать свои сообщения
Вам нельзя удалять свои сообщения
Вам нельзя голосовать в опросах
Вы не можете вкладывать файлы
Вы можете скачивать файлы



За информацию, размещённую на сайте пользователями, администрация форума ответственности не несёт.
Мощь пхпББ © 2001, 2002 пхпББ Груп
0.028 (0.960) u0.013 s0.000, 17 0.015 [252/0]