Brainwave To Music

把脑电数据整理成一条可执行的音乐生成链路

EMMA-Q 连接 EEG 数据导入、音乐偏好配置、参数导出与后端生成接口。 现在的前端重点是更清晰的工作流、更稳定的草稿保存,以及可直接接入后端的 API 层。

01 导入 EEG CSV

拖拽或选择本地数据文件,建立本次会话的数据源。

02 配置生成规则

调整节拍、音域、动态与旋律约束,控制生成风格。

03 导出或提交

既支持离线导出 INI,也支持直接调用后端接口。

04 生成音乐任务

上传 EEG 文件与参数包,触发后端生成流程。

Workflow

从采集到输出的完整使用路径

A

准备硬件

佩戴 EEG 头环与耳机,确保采集环境稳定。

B

导入脑电数据

把当前会话的 EEG CSV 导入工作台,确定处理时间范围与采样设置。

C

定义音乐偏好

调整节奏量化、音域中心、动态层级与和声策略。

D

提交后端生成

检查 API 健康状态后,将参数与 EEG 文件一起发往生成服务。

Interface Layer

前后端接口现在被单独抽离

旧版页面把交互逻辑、校验、导出和接口处理都塞在一个 HTML 里。 现在接口请求被放到独立的 api-client.js,参数页逻辑放到 preferences.js,后续接 Python、Node 或本地服务都更直接。

Offline First

没有后端时也能继续工作

即使服务还没启动,你仍然可以保存草稿、导出 INI、整理参数。 后端准备好后,只要填入 API 地址,页面就能直接切换到在线提交流程。