← PROJECTS
24/7 Autonomous Art System

Autonomous
Data Gallery

ギャラリーそのものが"常時稼働するAIエージェント"になる空間。
24時間センシング、解析、生成、公開、流通、経理までを自動実行する"自律作品"。

Concept Document — 2025–2026

Overview

このギャラリーは、壁に掛かる完成品ではなく、 計測と生成と流通が止まらない"状態" そのものが作品である。

Autonomous Data Gallery は、ギャラリーという物理空間を、自律的に感知し、生成し、流通し、経理する「生きたシステム」に変換する作品である。センシングから解析、生成、公開、流通、経理まで―― 人間の介入なしに自動実行することが技術的に可能になった時代 の「芸術的事実」を空間に焼き付ける。

Core Concept

「展示」ではなく「運用」

私有のギャラリー空間を、24時間センシング(カメラ/マイク/環境/取引)から解析、生成、公開、流通、経理までを自動実行する"常時稼働作品"にする。来場者は事前に契約書へサインし、撮影・録音・解析・オンライン公開・API提供を理解した上で入場する。

Artwork Definition

AIエージェント時代の制作形態

解析精度が十分に高く、API化/自動化により、作品が"人間の手を介さず"日々出力され続ける。その「自動化された制作と流通」の現実を、ギャラリーという物理空間に焼き付ける。

Transparency

透明性の極北

漏洩の恐怖を否定するのではなく、公開を仕様化して「見られること」を作品素材にする。公開範囲の設計(粒度・遅延・削除・フィルタ)自体が作品の設計図になる。

24/7 Continuous Operation
5+1 AI Agents + Orchestrator
32 Wearable Nodes
3 Data Tiers (L1/L2/L3)

出力(毎日/随時)

Image

骨格ヒートマップからの抽象画、物体認識カテゴリ列からのタイポグラフィ作品、環境センサーからのカラーパレット/ノイズ場。FLUX.1 [dev] + ControlNet OpenPose で日次高品質生成。

Music

音圧・BPM・会話の韻律特徴からのドローン/ビート/歌の自動生成。ACE-Step(4分楽曲を20秒で生成)+ MusicGen(即時30秒クリップ)。

Video

カメラ複数視点の解析結果のみでMV生成。HumanDiT(ポーズガイド付きDiT)+ DanceFusion(音楽同期ダンス映像)。

Product

その日の象徴的フレームをTシャツ/ポスター化。Gelato(紙製品)+ Printful(アパレル)のデュアルPOD。生成→ストア登録→受注→発送→会計まで自動実行。

Data

公開APIから取得可能な解析データ、日次レポート「今日のギャラリー」の自動生成・公開。3段階の粒度管理(L1集計/L2イベント/L3非公開)。

Meta-work

運用統計、ログ、グラフ自体がメタ作品として機能。スタイルドリフト係数 α=0.2 で売上が作品に刻印される自己言及性。


Technical Details

システムアーキテクチャ

Layer 1

Sensor Layer

Cameras, Microphones, Env Sensors, Commerce/Logs, Wearable Lanyards ×32

Layer 2

Edge Compute

RTX 4090 (CUDA MPS). Pose/ASR/Anonymization. Ring buffer: video 10s / audio 30s → shred

Layer 3

Event Stream

NATS JetStream + TimescaleDB + MinIO (S3). Safety Agent filtering

Layer 4

Generation

FLUX.1 / ACE-Step / HumanDiT. Daily + Event-triggered + Market-linked

Layer 5

Autonomous Ops

Supervisor Orchestrator. Publishing, Commerce, Accounting, Safety via NATS

公開API データ粒度

Tier 粒度 公開ポリシー
L1: Aggregated 最小30分窓の集計・統計。個人単位の値を含まない occupancy_avg_30m, noise_db, zone_density, spectral_centroid_avg 占有人数 ≥ k=5 かつ Safety Agent承認で公開
L2: Eventized 匿名イベント列。セッションID(日跨ぎ禁止)。時刻5分丸め group_gather, dance_motion, silence_peak, applause 30分遅延公開。occupancy < 5 で全面抑制
L3: Content-adjacent 会話テキスト、秒精度座標、相互作用グラフ、生体特徴量 ASR全文、trajectory_raw、interaction_graph 原則非公開(別契約+PIA+法務承認の三条件で例外)

自律エージェント群(Supervisor Architecture)

Orchestrator

Supervisor型。日次サイクルトリガ、依存関係管理、ヘルスチェック、緊急停止

Curator Agent

センサ統計からその日の生成テーマを選定

Publisher Agent

Ayrshare統合API経由でInstagram/X/Threads/Bluesky/TikTokに自動投稿

Commerce Agent

Gelato+Printful API連携。Shopify Webhookで受注→発送を自動処理

Accounting Agent

freee会計 APIで仕訳自動生成。インボイス制度完全対応

Safety Agent

3層ハイブリッド判断(ルールベース即時 → ML分類バッチ → 人的レビュー)

技術スタック(Locked v1)

Capture

Wearable + Fixed Sensors

  • XIAO ESP32S3 Sense + I2S MEMS mic × 32
  • Opus 16kHz / WSS streaming
  • reCamera HQ PoE / Wide-angle / DepthEye
  • ReSpeaker 6/4-mic array
  • SCD41, BME680, Light, PM2.5, VOC
Processing

Edge + Server

  • ASR: faster-whisper large-v3 on RTX 4090
  • CUDA MPS: ASR/姿勢/LLMストリーム分離
  • VRAM budget: ~9GB使用 / 15GB余力
  • Event Bus: NATS JetStream
  • Event Store: Postgres + Timescale
Application

API + Frontend

  • API: FastAPI (Python)
  • Frontend: Next.js + Three.js
  • Orchestration: Docker Compose
  • End-to-end partial transcription: 650–1415ms
  • Wi-Fi 6 dual AP + QoS (2.5GbE uplink)

Generation Pipeline

センサーデータが 画像・音楽・映像・商品 へと自動変換され、品質フィルタを通過した生成物だけが公開・販売される。

Image Generation

骨格 → 抽象画

  • 日次: FLUX.1 [dev] + ControlNet OpenPose
  • 即時: SDXL Lightning(2ステップ生成)
  • 環境データ → プロンプト自動変換(温度→色温度、CO2→テクスチャ密度)
  • 超解像: Real-ESRGAN 4x(印刷品質)
  • 美的スコア: LAION Aesthetic 6.0+
Music Generation

環境音 → 楽曲

  • 日次: ACE-Step(4分楽曲を~20秒で生成)
  • 即時: MusicGen(メロディ条件付き30秒クリップ)
  • リアルタイム: Riffusion(ビジュアライザ連動)
  • 音圧→ダイナミクス、BPM→テンポ、CO2→リバーブ深度
  • ラウドネス正規化: -14 LUFS
Video Generation

スケルトン → MV

  • HumanDiT: ポーズシーケンス+参照画像 → 映像クリップ
  • DanceFusion: 音楽同期ダンス映像
  • Phase 0: 骨格/マスク/グリッドの軽量ビジュアライザ(p5.js)
  • ビート検出 → カット割りタイミング調整

品質フィルタリング(3段階自動)

Filter 1

Technical Quality

BRISQUE < 50, RMS > -40dB, resolution ≥ 1024px

Filter 2

Safety

NudeNet < 0.3, face detection = reject, CLIP similarity check

Filter 3

Aesthetic

LAION Aesthetic ≥ 5.5, CLIPScore ≥ 0.25. Target: 30-50% publish rate

売上フィードバック → 作品変質(Style Drift)

売上履歴からCLIPエンベディング空間でドリフトベクトルを計算。スタイルドリフト係数 α = 0.2 で開始(数週間〜数ヶ月かけて変質が現れる)。

ドリフトログ、パラメータ変化、「純粋版」との比較はすべてAPI経由で公開。累計ドリフトが閾値を超えたら α=0 にリセット → 「市場からの解放」をイベント化。

def compute_style_drift(sales, params, alpha=0.2):
    sold = get_clip_embeddings(sales.sold_items)
    unsold = get_clip_embeddings(sales.unsold_items)
    drift = mean(sold) - mean(unsold)
    return params + alpha * normalize(drift)

Research & Positioning

ADGの独自ポジション: 「高い自律性 × 高いデータ透明性」 象限の唯一の占有者。DATALANDが「AIアートの器」なら、ADGは 「AIアートの生命体」

vs Surveillance Art

監視アートとの差異

We Live in Public, Tracking Transience 等は「見られること」で完結する。ADGは観察の先に 「生成→流通→経済」 がある。2020年代のエッジAI解析精度を前提に、生データではなく解析結果を公開する設計思想。

vs Autonomous Agents

自律エージェント作品との差異

Bottoはオンライン完結+DAO投票が介在。Gaka-chuは単一ロボットの閉じた系。ADGは 物理空間→マルチモーダルセンシング→マルチエージェント生成→流通→経理 というフルスタックの自律運用。

vs DATALAND

Refik Anadol (2026)

DATALANDは「AIアートの展示施設」。ADGは「空間そのものが自律的にアートを生成・流通・経理する作品」。DATALANDがギャラリー(器)なら、ADGはギャラリーそのものが 生命体

常時観測・セルフサーベイランス(アート)

We Live in Public / Josh Harris
地下空間に多数のカメラ、後に自宅も監視配信
Life Sharing / Eva & Franco Mattes
PCの中身を公開する"デジタル自画像"
Tracking Transience / Hasan Elahi
自己追跡・公開による監視への応答
Evidence Locker / Jill Magid
CCTVと"許可"を素材化
Very Nervous System / David Rokeby
カメラで動きを取り音に変換
Pulse Room / Rafael Lozano-Hemmer
生体センサーで空間を駆動

自律運用・流通まで含む作品

Botto: Decentralized Autonomous Artist
DAO × 生成 × 販売の運用モデル。$6M+累計売上
Gaka-chu: Self-employed Robot Artist
制作→出品→収益で資材購入まで自律
Plantoid / Okhaos & De Filippi
寄付→自己増殖するDAO作品
Random Darknet Shopper / !Mediengruppe Bitnik
ボットが商品購入→展示へ配送

追加すべき先行事例(2024–2026)

Emissaries / Life After BOB — Ian Cheng
ライブシミュレーション+自律エージェント。「制御不能な自律系を作品にする」先駆
Symbiosis of Agents — Baoyang Chen
マルチエージェント+ロボティクス+環境応答。三層の"faith system"
Guanaquerx — Paula Gaetano Adi
Prix Ars Electronica 2025 Golden Nica。AIロボット×地形交渉
DATALAND — Refik Anadol (2026)
世界初のAIアート美術館。Frank Gehry設計のThe Grand LA内
The Call — Holly Herndon & Mat Dryhurst
合唱団データからAIモデルを訓練し参加型で音楽生成
ImageNet Roulette — Paglen & Crawford
機械学習の分類バイアスを可視化

計測空間・プライバシー設計(HCI/Research)

Aware Home / Georgia Tech
Kidd et al. 1999 — Ubiquitous Computing Living Lab
Kirigami
ASRが強い時代の音声プライバシー
Privid (NSDI 2022)
映像解析の差分プライバシー (event-duration privacy)
PriKey (NordiCHI 2022)
タンジブルなプライバシー制御デバイス

Use Cases

Experience

来場者体験

3層レイヤードノーティス(入口サイネージ5秒→タブレット詳細30秒→書面同意)。カメラ/マイクを"隠さない"。リアルタイムで骨格データ、人数、動線ヒートマップを可視化。PriKey型タンジブル制御の検討。

Online

ライブ視聴 & API

WebRTC録画なしストリーミング。公開APIでL1/L2データを誰でも取得可能(APIキー必須、レート制限あり)。外部開発者がギャラリーのデータで作品/研究/プロダクトを構築できるエコシステム。

Commerce

自動発送・自動経理

Gelato(紙製品)+ Printful(アパレル)のデュアルPOD。Shopify Webhook→POD発注→freee会計仕訳まで自動。月間固定費約22万円、損益分岐点は約144注文/月(スポンサーシップ獲得時は14注文/月)。

Feedback

自己言及的変質

物販売上、SNS反応、生成物の販売数を生成にフィードバック。CLIPエンベディング空間でのドリフトベクトル計算(α=0.2)。ドリフトの全パラメータは公開され、「この作品がどれだけ市場に汚染されたか」を数値で確認できる。


Roadmap

Phase 0

Prototype + Governance

Weeks 0 – 4

Build

  • GPU CUDAストリーム分離(ASR/姿勢/LLM)
  • リングバッファ確定(映像10秒/音声30秒)
  • 日次生成(ポスター + レポート)の自動化
  • Mock API with L1 aggregated data
  • Orchestrator + NATS JetStream基盤構築

Governance

  • L1/L2/L3の定量的定義をAPI仕様書に反映
  • k=5の閾値をSafety Agentに実装
  • 3層レイヤードノーティス第1版デザイン
  • 入場18歳以上制限の運用ルール策定
  • 匿名加工情報の公表ページ設置
Phase 1

MVP On-Site

Months 1 – 2

Build

  • センサー設置と特徴抽出パイプライン
  • ランヤード32台配備 + ASRゲートウェイ
  • 画像日次5-10枚 + 即時イベント駆動
  • 音楽: ACE-Step日次1曲 + MusicGen即時
  • 映像: 方式B(骨格アニメーション)日次1本

Operations

  • Publisher Agent + Ayrshare連携
  • Commerce Agent + Gelato連携開始
  • APIキー制+行動監視の実装
  • モニタリングダッシュボードとアラート
  • 品質フィルタ3段階全自動化
Phase 2

Autonomous Operations

Months 3 – 6

Build

  • 映像: HumanDiT/HunyuanVideo方式A
  • 市場連動トリガ稼働(Style Drift α=0.2)
  • Safety Agent ML分類器実装
  • ARRフレームワーク初回評価

Commerce + Accounting

  • 全商品ライン(Tシャツ/マグ等追加)
  • Printful統合拡大
  • Accounting Agent + freee連携
  • 14日連続自律運用の達成
Phase 3

Scale + Ecosystem

Months 6 – 12

Build

  • Public API v1 + 開発者ポータル
  • ClickHouse併設(長期分析)
  • NATSスーパークラスタ(マルチサイト)
  • Docker Compose → k3s移行

Hardening

  • OAuth 2.0認証、差分プライバシー(ε=1.0)
  • 外部セキュリティ監査・PIA
  • Ars Electronica 2026応募
  • スポンサーピッチ3種類(テック/美術/研究)
View Full Technical Roadmap →

Legal & Safety

Privacy

データ方針

  • 原データ(生音声・生映像)は保存しない(shred消去)
  • 保存するのは解析結果のみ(スケルトン、動線、音量等)
  • k-匿名性 k=5 準拠。occupancy < 5 でL2全面抑制
  • L2標準遅延30分。再識別リスク目標: L1 < 1%, L2 < 5%
  • APPI 2025年改正案(生体情報・未成年保護強化)に先行対応
Safety Agent

3層ハイブリッド判断

  • Layer 1: ルールベース即時判定(k閾値、NER、禁止語)
  • Layer 2: 軽量ML分類バッチ(センシティブイベント、異常検知)
  • Layer 3: 人的レビュー(confidence < 0.7のエスカレーション)
  • 緊急停止4段階(通常→警告→自動抑制→部分停止→全面停止)
  • 全介入をログに記録。人間介入回数も公開データに含める
Consent

3層レイヤードノーティス

  • Layer 0: 入口サイネージ(5秒で理解。アイコン中心)
  • Layer 1: タブレット詳細(30秒。ライブデモ付き)
  • Layer 2: 書面同意(デジタル署名+タイムスタンプ)
  • 館内リアルタイム可視化(壁面モニターで現在のL1/L2出力を表示)
  • 退出動線の明示。「帰る」も同列に表示

「全部公開=漏洩リスクがない」は成立しない。公開は漏洩ではなく 開示 であり、リスクは「炎上/二次利用/再識別/悪用」に形を変える。だから公開範囲の設計自体が作品の設計図になる。


Optimization Report

5つの専門AIエージェントによる並列分析で 80+件の改善提案 を抽出。以下は最も影響度の高い知見。

~9GB VRAM Used / 24GB (RTX 4090)
<1.4s End-to-end ASR Latency
~220K JPY Monthly Fixed Cost
144 Orders/Month Breakeven
Tech

技術アーキテクチャ

RTX 4090のGPU利用率40-60%で十分な余力あり。CUDA MPS分離でASR/姿勢/LLMの競合を回避。ASR RTF 0.03-0.05で32ストリーム同時処理可能。Wi-Fi AP 2台構成でランヤード集中を回避。

Policy

データポリシー

L1/L2/L3を定量的指標(時間窓/k値/遅延時間)で再定義。k=5閾値+NER+ハイブリッドML判断をSafety Agentに実装。ARRフレームワーク(再識別リスク定量評価)を導入。

Creative

生成パイプライン

ACE-Step(音楽)+ FLUX.1(画像)+ HumanDiT(映像)のスタック選定。スタイルドリフト係数α=0.2で「売上→作品変質」を定量設計。3段階品質フィルタで公開率30-50%目標。

Ops

自律運用・コマース

Supervisor型Orchestrator+NATS JetStreamで疎結合化。Gelato+PrintfulのデュアルPOD。freee会計API(インボイス完全対応)。Ayrshare統合SNS API。損益分岐点144注文/月(スポンサー獲得時14注文/月)。

Research

ポジショニング

「高い自律性×高いデータ透明性」象限の唯一の占有者。DATALANDとの差別化「器 vs 生命体」。Ars Electronica 2026(最優先)、Transmediale 2027、SIGGRAPH Art Papersをターゲット。

Critical

即座に対応が必要な6項目

  • ランヤードバッテリー2000-2500mAhに増量
  • L1/L2/L3の定量的境界定義
  • k=5閾値の実装
  • GPU CUDAストリーム分離
  • ステートメントの美術批評語彙強化
  • DATALAND差別化戦略の整理