主权智能 (Sovereign Intelligence)。
从软件到硬件,完整的AI全栈。

Eulerwa Inc. 将AI开发的每一层——从模型训练到硬件加速再到自主代理——通过CLI和开源公开。
训练的EulerForge,围棋 AI 研究的EulerGo,数据的EulerWeave,执行的EulerAgent,出版的EulerPress,硬件的EulerNPU,机器人学习的EulerAtlas,模型设计的EulerStack

EulerForge EulerWeave EulerStack EulerAgent EulerAtlas EulerNPU EulerGo EulerPress

EulerForge:让 Dense 模型以 MoE 风格训练的 LLM 微调工具

面向研究的 LLM 微调框架,可向 HuggingFace 模型注入 LoRA,并把 Dense 模型作为 Mixture LoRA · MoE Expert LoRA 结构来训练。在常见的 Dense SFT 流程之上,EulerForge 叠加了 Dense → MoE 转换阶段调度,让研究者在有限的 GPU 预算下,可复现地研究路由、专家特化与 MoE 稳定性。一份 YAML 预设就可以把 SFT → DPO/ORPO → RM → PPO 一路贯通。

了解更多 教程 (24 篇, EN) CLI 参考 (EN)

特点 —— 面向研究的 MoE 转换路径

EulerForge 把 "Dense → MoE" 的研究流程以标准化的方式整合在一起,让实验可以通过配置来表达,而不必改动胶水代码。

  • Dense → MoE 转换:mixture_lora / moe_expert_lora 一键开启
  • LoRA Handoff + 阶段调度:router → LoRA → base FFN 的分阶段 unfreeze,大模型也稳定
  • 一个预设 = 完整管线:SFT → DPO/ORPO → RM → PPO 一条命令序列
  • Preflight + MoE 稳定性验证:在 GPU 空转一轮之前拦截配置错误

4 种注入 × 5 种训练路径

注入策略 Dense LoRA · Mixture LoRA · MoE Expert LoRA · Native MoE Expert LoRA
训练类型 SFT · DPO · ORPO · RM · PPO
支持骨干 Qwen2/3 · Llama 2/3 · Gemma 3 · Gemma 4 (dense+MoE) · Mixtral
量化训练 nf4 / int4 / int8 (bitsandbytes)
附加 HF Export · Optuna Grid/Bayes 搜索 · 集成基准测试 · 5 语言 CLI

内置 24 篇 KO/EN 教程 + 完整 CLI 参考

EulerWeave:数据引擎

弥合原始数据集与生产级模型训练之间差距的综合数据处理系统。

了解更多

Open Source:数据预处理

为研究人员和开发者设计,在本地环境中精炼和分析数据。

  • 智能分析:利用本地LLM进行初始数据画像。
  • 递归过滤:自动生成和应用领域特定的过滤器类。
  • 指标计算:PPL、Loss及用于去重的MinHash计算。
  • 质量评分:通过BERT模型进行噪声过滤评分。

Enterprise:编排

从单GPU扩展到集群级别的业务关键功能。

  • 缩放验证:自动化1-GPU LoRA/MoE测试。
  • 资源估算:基于AI的GPU时间和云成本计算。
  • 参数调优:贝叶斯优化和网格搜索自动化。
  • MLOps集成:从训练启动到结果合成的完整管线。

EulerStack:用 YAML 组装 LLM 架构的模块化构建器

一份 YAML 规格就可以把 Attention、Mamba、RetNet、Hyena 等多种混合器与 MoE FFN 组合起来,构建任意规模的混合 LLM。DSL → Schema → IR → Compiler → CLI 五层管线会先完成校验与规范化,再输出 HuggingFace PreTrainedModelconfig.json + model.safetensors),EulerForge 可直接读取用于训练,让设计 → 组装 → 微调一路贯通。

了解更多

31 个预设 — 规模轴 × 架构轴

15 个 arch_ 预设(统一约 2B,按技能等级层次)复现研究论文的架构,16 个 llm_ 预设覆盖 4 个规模 × 4 个变体。预设只是起点,改动 d_model 与层数,就能组装任意规模的模型。

混合器Attention · Mamba · RetNet · Hyena
FFNMLP · Gated MLP (SwiGLU) · MoE (top-k 路由)
技能等级走读beginner(GPT-2/Llama) · intermediate(Mistral/Gemma2/Qwen) · advanced(Jamba/Samba/RetNet) · expert(MoE × 混合器 二维设计空间)
编译目标HuggingFace 模型目录 或 JSON 运行时配置

CLI & 工作流

# 浏览预设
eulerstack presets list
eulerstack presets show llm_2b_simple

# 规格校验(含现实性报告)
eulerstack validate --preset my_model.yml --report

# 生成 HF 模型目录 → 直接用 eulerforge 训练
eulerstack compile --preset my_model.yml --output-dir ./my_model

结构校验 → 跨字段兼容性 → 现实性启发式的三段式校验,在编译前拦截设计错误。所有 CLI 消息支持 5 种语言(ko/en/zh/ja/es)。

EulerAgent:确定性CLI框架

具备8状态机、Pattern/Graph编排器、RAG、长期记忆(LTM)、MCP集成和30+命令的本地优先代理框架。每个操作都经过日志记录、审计和人工审批。

了解更多

人机协同安全 (HITL)

理念:改变世界的代理的每一个行动(文件写入、Shell执行、外部调用)都必须经过人工审批。

  • 确定性状态机:严格遵循CREATE → PLAN → APPROVE → EXECUTE周期。
  • 长期记忆 (LTM):基于SQLite的持久化记忆存储,维护用户偏好和项目上下文。
  • RAG管线:支持引用来源追踪的混合词汇/向量搜索。
  • 工具权限链:涵盖工作空间、代理和网络策略的多层安全结构。

命令行界面 (CLI)

euleragent init
# 创建并运行代理
euleragent new my-assistant --template personal-assistant
euleragent run my-assistant --task "执行代码重构"

# 审计和审批高风险操作
euleragent approve list
euleragent approve accept [id] --execute

为希望获得自主功能但不牺牲控制力和安全性的开发者而构建。

EulerAtlas:8域机器人行为学习

基于CLI的模仿学习框架,从专家演示中学习策略并在仿真中评估。经典4域(汽车、无人机、人形机器人、机器狗)与工业4域(移动操作、仓储AGV、智慧农业机器人、造船厂起重机)——8个域在统一模式上运行。11个命令组(含edge部署)、Domain Plugin扩展。

了解更多

8域统一模式

每个域拥有固定维度obs/action模式,所有模块以一致方式通信。

经典 (01–04) 汽车 4/2 · 无人机 6/3 · 人形机器人 12/6 · 机器狗 12/8
工业 (05–08) 移动操作 18/8 · 仓储AGV 14/4 · 农业机器人 16/6 · 造船厂 20/9
策略模型 BC-MLP, BC-RNN, BC-CNN, ACT, Diffusion Policy
级别 L0 Toy · L1 Intermediate · L2 Advanced(实际后端)

CLI & 策略模型

euleratlas init --role road --level 0
euleratlas train -c config.yml
euleratlas sim rollout -c config.yml

支持BC-MLP、BC-RNN、BC-CNN、ACT、Diffusion Policy 5种策略模型。3行命令即可完成初始化、训练和仿真。

EulerNPU:NPU 推论合成模拟栈

123个算子(13组)、10种数据类型、spec.yaml到.npuart的编译管线,以及Zynq-7020 FPGA运行时——通过单一CLI覆盖NPU推理硬件的完整开发流程。

了解更多

算子与编译器

覆盖CNN/Transformer/RNN/量化等13个算子组的完整推理算子集,支持10种数据类型。

算子 123个(13组:Core, Conv, Pool, Activation, Norm, Recurrent, Attention, Quantize等)
数据类型 float32/16, bfloat16, int8/16/32, uint8/16/32, bool
编译 spec.yaml → IR → .npuart(NPU Archive)
硬件 Zynq-7020 FPGA运行时

CLI 工具链

eulernpu validate spec.yaml
eulernpu compile spec.yaml -o model.npuart
eulernpu run model.npuart --input data.bin
eulernpu sim model.npuart --cycles 1000
eulernpu profile model.npuart --report

从规格验证到编译、运行、模拟、性能分析——5个子命令覆盖完整工作流。

EulerGo:守护棋风的围棋 AI 研究平台

面向围棋 AI 的 CLI 研究平台。在强大的共同实力层之上,可学习、比较并保存不同的棋风(style)。这是我们对围棋界长期以来的一种关切的研究式回应 —— AI 时代里,每位棋手的下法似乎正向唯一的"正解"收敛。EulerGo 将一局棋前约 50 手所呈现的个性视为可学习的信号,通过 style latent 与多算法对比加以刻画,目标是一个让多种"棋风"并存的研究环境,而非单一的超强引擎。

了解更多

共同实力层 + 可替换的棋风头

9 个基础通道与 N 个 style latent 通道一起广播到输入张量,从而可以在同一个骨干上训练或替换多个"棋风头",以可复现的方式把前 50 手所显现的个性当作可学习的信号来处理。

  • Style Latent:9 (base) + N (style) 输入通道,向后兼容
  • 自我改进循环:selfplay → train → analyze → league → 更强的棋风信号
  • Style Classifier v2:训练过的分类器用于自动标注和风格比较

多算法 · 联赛 · 分布式 self-play

算法像旋钮一样可替换,实现公平比较。

算法 PUCT MCTS · Gumbel (Sequential-Halving) · QZero (searchless) · PGS (tree-free) · Native C++ MCTS · Random 基线
评估 循环联赛 + 迭代 ELO + Bootstrap 置信区间
棋盘 9×9 / 19×19(中国规则计子、ko/superko、SGF)
扩展 分布式 selfplay (coordinator/worker) · Web 仪表盘 · Toga GUI 应用 · i18n CLI (ko/en/zh/ja/es)

作为对围棋界长期关切的一次研究式回应而设计的平台。

EulerPress: 企业文档翻译

一款本地优先(Local-First)的CLI工具,在完美保留代码块、数学公式和URL的同时精确翻译散文文本。支持从企业文档本地化到AI训练JSONL数据翻译。

了解更多

精准保留翻译

  • 代码/公式保留:自动识别并保留代码块、行内代码、LaTeX数学公式和URL。
  • 多格式支持:支持Markdown、HTML、纯文本和JSONL格式。
  • 术语表管理:基于Tavily的领域术语表确保翻译一致性。

本地优先 & AI数据

  • 本地LLM:基于Ollama的翻译,机密文档不会外泄。
  • 训练数据:大规模并发JSONL训练数据翻译管线。
  • 质量验证:自动检查翻译长度比例、数学占位符和格式完整性。

资源与文库

访问专业技术出版物和开源生态系统。

出版物 (Publications)

关于量子计算和AI架构的深度研究书籍。

开源生态系统

用于数据处理和模型编排的社区工具。

垂直AI代理

基于Eulerwa技术栈构建的领域特化解决方案。

Medical AI顾问

提供个性化身体状况分析和基于营养的"以食代药(Food over Medicine)"指导的健康代理。

智能开发平台

利用EulerAgent自动化设计和调试,并管理内部软件生命周期的自主编码系统。

Eulerwa 原则

技术为人类而存在

非军事化原则

我们反对人工智能的军事自动化。技术应当用于保护生命,而非夺取生命——任何技术成就都不能凌驾于人类安全之上。

人文主义与民主

人工智能应当成为提升人的尊严、巩固民主价值的工具。我们反对将AI用于压制个人自由或损害民主原则的任何目的。

使用原则

Eulerwa发布的所有软件、模型和服务均不得用于违反上述原则的用途。我们严肃对待技术使用的责任。

Eulerwa集成生命周期

1. EulerStack (设计)
2. EulerForge (模型)
3. EulerWeave (数据)
4. EulerNPU (推论硬件)
5. EulerAtlas (机器人学习)
6. EulerAgent (执行)
7. EulerPress (出版)

与我们共建主权AI

开源、本地优先、以人为本。

联系我们