1. Локальные вычисления на устройствах: Каждое устройство (твой телефон или комп) выполняет часть работы локально. Для обучения (training) — модель обновляется на твоих данных (без их передачи), а для inference (генерация текста/изображений) — модель делится на "шарды" (слои), которые последовательно обрабатывают запрос на разных устройствах. Это как TON Torrent: данные/вычисления "скачиваются" от волонтёров в сети.
2. Координация через блокчейн: Блокчейн хранит модель, обновления и историю. Для хранения больших объемов данных, таких как "снимки" (snapshots) обученных моделей или архивные копии блоков, будет использоваться TON Storage — распределенное хранилище, аналогичное BitTorrent. Это снизит нагрузку на сам блокчейн, оставив на нем только самую важную информацию (хэши, метаданные). Смарт-контракты автоматизируют процесс: распределяют задачи, проверяют качество (через консенсус, например, Proof-of-Stake или Shapley values) и агрегируют результаты. Если устройство внёс вклад (выполнило шард или обновление), оно получает токены как награду. Малварные узлы штрафуются (slashing).
3. Глобальное объединение устройств: Через TON P2P (peer-to-peer) устройства находят друг друга. Волонтёры (пользователи) подключают idle-ресурсы (свободные GPU/CPU), как в SETI@home, но для ИИ. Для обеспечения приватности и анонимности пользователей, которые предоставляют свои вычислительные ресурсы, может использоваться TON Proxy. Он позволит участникам анонимно подключаться к сети и взаимодействовать с ней, скрывая свой реальный IP-адрес. Инсентивы — токены за вычисления, что мотивирует миллиарды юзеров Telegram. Для больших моделей (типа Llama 405B или др.) inference идёт по цепочке: шард 1 на устройстве в США, шард 2 в Европе и т.д., с шифрованием для приватности.
4. Преимущества и вызовы: Это дешево (нет облачных гигантов), прозрачно (всё на цепочке верифицируемо) и масштабируемо, TON DNS позволит присваивать сервисам на базе ИИ человекочитаемые имена (пример, my-ai-assistant.ton), а платформа предоставит удобный интерфейс, похожий на обычные приложения или веб-сайты, доступный прямо со смартфона. Это сделает сложную технологию простой и доступной для миллиардов пользователей. но есть задержки от сети, энергозатраты и риски (атаки на консенсус). В Казахстане Alem AI, по плану Дурова, интегрирует это с суперкомпьютером для старта, а потом расширит на глобальную сеть.
Это не фантастика — уже работают прототипы вроде Petals (для LLM inference) или Bittensor (децентрализованная ML-сеть с токенами).
Где почитать научные papers:
- Blockchain-Based Federated Learning: A Survey and New Perspectives (2024, MDPI): Обзор, как блокчейн решает проблемы FL — от координации устройств до токенов за вклад. Идеально для понимания глобальной сети.
Ссылка
- PolyLink: A Blockchain Based Decentralized Edge AI Platform for LLM Inference (2025, arXiv): О платформе для inference LLM на edge-устройствах по миру (тесты на 20 устройствах в Азии). Описывает шардинг модели, верификацию и награды — прям как для Telegram.
Ссылка
- Blockchain for federated learning toward secure distributed machine learning systems: a systemic survey (2021, PMC): Классический обзор по BCFL, с фокусом на глобальную безопасность и участие волонтёров в обучении/инференсе.
Ссылка
- Petals: Collaborative Inference and Fine-tuning of Large Models (2022, arXiv): О P2P-сети для распределённого inference больших LLM, как BitTorrent для ИИ — волонтёры делят слои модели.
Ссылка
- Distributed Deep Learning Using Volunteer Computing-Like Paradigm (2021, arXiv): Как использовать volunteer computing (типа BOINC) для DL на тысячах компов по миру.
Ссылка