⭐️ Decentralized AI | Масс-адопшен уже близко? ⭐️
📌 Вчера на крупном американском подкаст-шоу All-In Podcast выступал Jensen Huang (глава NVIDIA). Было много интересного про OpenClaw, AI в медицине, датацентры в космосе, роботов, и конечно же про децентрализованный AI (смотреть с 31:24)
▶️ Ведущие прямо спросили про Bittensor и их subnet 3 Templar (их репост), которые смогли обучить модель с 72b параметрами на нескольких десятках децентрализованных GPU кластеров (подробнее писал тут).
▶️ Комментарии Jensen:
1️⃣ LLM Модели - это не продукт или сервис, это технология. Технологии ты никак не ограничишь и это и не нужно.
2️⃣ Централизованные и Open-Source модели, это не конкуренты, а взаимодополняющие решения.
🔵️ Места хватит всем и текущие модели Grok, ChatGPT, Claude, Gemini - каждая хороша по своему и каждая останется для своих клиентов. Но Open-Source уже находятся "на границе" по качеству и адопшену, чтобы наравне с централизованными лидерами занять свое место.
3️⃣ Сравнил Open-Source AI вычисления с американским проектом Folding@home:
🟦 Folding@home - один из самых амбициозных проектов в истории науки, который превратил миллионы обычных домашних компьютеров в один гигантский распределенный суперкомпьютер. Посути это программа, которая использует «простаивающую» мощность вашего процессора или видеокарты для моделирования поведения белков в организме человека.
🟦 Проблема: Иногда белки сворачиваются неправильно (misfolding). Это приводит к образованию «биологического мусора», который убивает клетки. Ошибки фолдинга лежат в основе таких болезней, как Альцгеймер, Паркинсон, диабет 2-го типа и многие виды рака и вирусов (COVID-2019)
🟦 Моделирование фолдинга одного белка на обычном компьютере может занять столетия. Folding@home разбивает одну огромную задачу на миллионы крошечных «порций» (work units). Ваша видеокарта берет одну такую порцию, обсчитывает её за несколько часов и отправляет результат обратно на сервер проекта
🟦 В 2020г, в разгар COVID, суммарная мощность Folding@home превысила 2.4 эксафлопса, что превышает мощности топ-500 самых быстрых суперкомпьютеров мира вместе взятых.
🟦 Современные модели (вроде AlphaFold от Google DeepMind) уже научились предсказывать структуру белков с помощью ИИ гораздо быстрее, чем через классическое моделирование, но Folding@home все еще работает и востребован для изучения того, как белки двигаются во времени.
Интервью, конечно, придало значительный памп-импульс $TAO и всей их subnet-экосистеме, даже на текущей локальной коррекции.
🗒 Отчет по Bittensor subnets - позволяет чуть глубже изучить текущие subnet, кто чем занимается и какие перспективы возможны. Отчет в форме таблиц и графиков, поэтому читается легко, даже без помощи ChatGPT резюмирования. Всем рекомендую.
🤩 В отчете также даны рекомендации автора по портфелю сабнетов.
🔵️ TAO (native token): 40%;
🔵️ SN64 Chutes: 25%;
🔵️ SN3 Templar: 15%;
🔵️ SN9 IOTA: 10%;
🔵️ SN4 Targon: 5%;
🔵️ Micro-cap SN123 (MANTIS) + SN62 (Ridges) + SN81 (Grail): 5%.
* Я в такой же пропорции и распределил свой мини-стэк на AI нарратив, за исключением того, что нативный TAO также раскидал на указанные сабнеты. Корреляция итак сильная, но потенциал на иксы у сабнетов как будто больше.
🤓 Ставка очень рискованная, повторять не призываю, но как минимум интересно будет понаблюдать.















