import os
import json
import numpy as np
import librosa
from datetime import datetime
from flask import Flask, send_from_directory, render_template
import gradio as gr
from transformers import pipeline
import requests
from dotenv import load_dotenv
app = Flask(__name__)
# 상수 정의
WELCOME_MESSAGE = """
# 디지털 굿판에 오신 것을 환영합니다
이곳은 현대 도시 속에서 잊혀진 전통 굿의 정수를 담아낸 디지털 의례의 공간입니다.
이곳에서는 사람들의 목소리와 감정을 통해 영적 교감을 나누고, 자연과 도시의 에너지가 연결됩니다.
"""
ONCHEON_STORY = """
## 생명의 공간 ‘온천천’ 🌌
온천천의 물줄기는 신성한 금샘에서 시작됩니다. 금샘은 생명과 창조의 원천이며, 천상의 생명이 지상에서 숨을 틔우는 자리입니다.
도시의 소음 속에서도 신성한 생명력을 느껴보세요. 이곳에서 영적인 교감을 경험하며, 자연과 하나 되는 순간을 맞이해 보시기 바랍니다
이 프로젝트는 부산광역시 동래구 ‘온천장역’ 에서 금정구 ‘장전역’을 잇는 구간의 온천천 산책로의 사운드 스케이프를 기반으로 제작 되었습니다.
산책로를 따라 걸으며 본 프로젝트 체험 시 보다 몰입된 경험이 가능합니다.
"""
class SimpleDB:
def __init__(self, reflections_path="data/reflections.json", wishes_path="data/wishes.json"):
self.reflections_path = reflections_path
self.wishes_path = wishes_path
os.makedirs('data', exist_ok=True)
self.reflections = self._load_json(reflections_path)
self.wishes = self._load_json(wishes_path)
def _load_json(self, file_path):
if not os.path.exists(file_path):
with open(file_path, 'w', encoding='utf-8') as f:
json.dump([], f, ensure_ascii=False, indent=2)
try:
with open(file_path, 'r', encoding='utf-8') as f:
return json.load(f)
except Exception as e:
print(f"Error loading {file_path}: {e}")
return []
def save_reflection(self, name, reflection, sentiment, timestamp=None):
if timestamp is None:
timestamp = datetime.now().strftime("%Y-%m-%d %H:%M:%S")
reflection_data = {
"timestamp": timestamp,
"name": name,
"reflection": reflection,
"sentiment": sentiment
}
self.reflections.append(reflection_data)
self._save_json(self.reflections_path, self.reflections)
return True
def save_wish(self, name, wish, emotion_data=None, timestamp=None):
if timestamp is None:
timestamp = datetime.now().strftime("%Y-%m-%d %H:%M:%S")
wish_data = {
"name": name,
"wish": wish,
"emotion": emotion_data,
"timestamp": timestamp
}
self.wishes.append(wish_data)
self._save_json(self.wishes_path, self.wishes)
return True
def _save_json(self, file_path, data):
try:
with open(file_path, 'w', encoding='utf-8') as f:
json.dump(data, f, ensure_ascii=False, indent=2)
return True
except Exception as e:
print(f"Error saving to {file_path}: {e}")
return False
def get_all_reflections(self):
return sorted(self.reflections, key=lambda x: x["timestamp"], reverse=True)
def get_all_wishes(self):
return self.wishes
# API 설정
HF_API_TOKEN = os.getenv("roots", "")
if not HF_API_TOKEN:
print("Warning: HuggingFace API token not found. Some features may be limited.")
API_URL = "https://api-inference.huggingface.co/models/stabilityai/stable-diffusion-xl-base-1.0"
headers = {"Authorization": f"Bearer {HF_API_TOKEN}"} if HF_API_TOKEN else {}
# AI 모델 초기화
try:
speech_recognizer = pipeline(
"automatic-speech-recognition",
model="kresnik/wav2vec2-large-xlsr-korean"
)
text_analyzer = pipeline(
"sentiment-analysis",
model="nlptown/bert-base-multilingual-uncased-sentiment"
)
except Exception as e:
print(f"Error initializing AI models: {e}")
speech_recognizer = None
text_analyzer = None
# 필요한 디렉토리 생성
os.makedirs("generated_images", exist_ok=True)
# 음성 분석 관련 함수들
def calculate_baseline_features(audio_data):
try:
if isinstance(audio_data, tuple):
sr, y = audio_data
y = y.astype(np.float32)
elif isinstance(audio_data, str):
y, sr = librosa.load(audio_data, sr=16000)
else:
print("Unsupported audio format")
return None
if len(y) == 0:
print("Empty audio data")
return None
features = {
"energy": float(np.mean(librosa.feature.rms(y=y))),
"tempo": float(librosa.feature.tempo(y=y, sr=sr)[0]),
"pitch": float(np.mean(librosa.feature.zero_crossing_rate(y=y))),
"volume": float(np.mean(np.abs(y))),
"mfcc": librosa.feature.mfcc(y=y, sr=sr, n_mfcc=13).mean(axis=1).tolist()
}
return features
except Exception as e:
print(f"Error calculating baseline: {str(e)}")
return None
def map_acoustic_to_emotion(features, baseline_features=None):
if features is None:
return {
"primary": "알 수 없음",
"intensity": 0,
"confidence": 0.0,
"secondary": "",
"characteristics": ["음성 분석 실패"],
"details": {
"energy_level": "0%",
"speech_rate": "알 수 없음",
"pitch_variation": "알 수 없음",
"voice_volume": "알 수 없음"
}
}
energy_norm = min(features["energy"] * 100, 100)
tempo_norm = min(features["tempo"] / 200, 1)
pitch_norm = min(features["pitch"] * 2, 1)
if baseline_features:
if baseline_features["energy"] > 0 and baseline_features["tempo"] > 0 and baseline_features["pitch"] > 0:
energy_norm = (features["energy"] / baseline_features["energy"]) * 50
tempo_norm = (features["tempo"] / baseline_features["tempo"])
pitch_norm = (features["pitch"] / baseline_features["pitch"])
emotions = {
"primary": "",
"intensity": energy_norm,
"confidence": 0.0,
"secondary": "",
"characteristics": []
}
# 감정 매핑 로직
if energy_norm > 70:
if tempo_norm > 0.6:
emotions["primary"] = "기쁨/열정"
emotions["characteristics"].append("빠르고 활기찬 말하기 패턴")
else:
emotions["primary"] = "분노/강조"
emotions["characteristics"].append("강한 음성 강도")
emotions["confidence"] = energy_norm / 100
elif pitch_norm > 0.6:
if energy_norm > 50:
emotions["primary"] = "놀람/흥분"
emotions["characteristics"].append("높은 음고와 강한 강세")
else:
emotions["primary"] = "관심/호기심"
emotions["characteristics"].append("음고 변화가 큼")
emotions["confidence"] = pitch_norm
elif energy_norm < 30:
if tempo_norm < 0.4:
emotions["primary"] = "슬픔/우울"
emotions["characteristics"].append("느리고 약한 음성")
else:
emotions["primary"] = "피로/무기력"
emotions["characteristics"].append("낮은 에너지 레벨")
emotions["confidence"] = (30 - energy_norm) / 30
else:
if tempo_norm > 0.5:
emotions["primary"] = "평온/안정"
emotions["characteristics"].append("균형잡힌 말하기 패턴")
else:
emotions["primary"] = "차분/진지"
emotions["characteristics"].append("안정적인 음성 특성")
emotions["confidence"] = 0.5
emotions["details"] = {
"energy_level": f"{energy_norm:.1f}%",
"speech_rate": f"{'빠름' if tempo_norm > 0.6 else '보통' if tempo_norm > 0.4 else '느림'}",
"pitch_variation": f"{'높음' if pitch_norm > 0.6 else '보통' if pitch_norm > 0.3 else '낮음'}",
"voice_volume": f"{'큼' if features['volume'] > 0.7 else '보통' if features['volume'] > 0.3 else '작음'}"
}
return emotions
def analyze_voice(audio_data, state):
if audio_data is None:
return state, "음성을 먼저 녹음해주세요.", "", "", ""
try:
sr, y = audio_data
y = y.astype(np.float32)
if len(y) == 0:
return state, "음성이 감지되지 않았습니다.", "", "", ""
acoustic_features = calculate_baseline_features((sr, y))
if acoustic_features is None:
return state, "음성 분석에 실패했습니다.", "", "", ""
# 음성 인식
if speech_recognizer:
try:
transcription = speech_recognizer({"sampling_rate": sr, "raw": y.astype(np.float32)})
text = transcription["text"]
except Exception as e:
print(f"Speech recognition error: {e}")
text = "음성 인식 실패"
else:
text = "음성 인식 모델을 불러올 수 없습니다."
# 음성 감정 분석
voice_emotion = map_acoustic_to_emotion(acoustic_features, state.get("baseline_features"))
# 텍스트 감정 분석
if text_analyzer and text:
try:
text_sentiment = text_analyzer(text)[0]
text_result = f"텍스트 감정 분석: {text_sentiment['label']} (점수: {text_sentiment['score']:.2f})"
except Exception as e:
print(f"Text analysis error: {e}")
text_sentiment = {"label": "unknown", "score": 0.0}
text_result = "텍스트 감정 분석 실패"
else:
text_sentiment = {"label": "unknown", "score": 0.0}
text_result = "텍스트 감정 분석을 수행할 수 없습니다."
voice_result = (
f"음성 감정: {voice_emotion['primary']} "
f"(강도: {voice_emotion['intensity']:.1f}%, 신뢰도: {voice_emotion['confidence']:.2f})\n"
f"특징: {', '.join(voice_emotion['characteristics'])}\n"
f"상세 분석:\n"
f"- 에너지 레벨: {voice_emotion['details']['energy_level']}\n"
f"- 말하기 속도: {voice_emotion['details']['speech_rate']}\n"
f"- 음높이 변화: {voice_emotion['details']['pitch_variation']}\n"
f"- 음성 크기: {voice_emotion['details']['voice_volume']}"
)
# 프롬프트 생성
prompt = generate_detailed_prompt(text, voice_emotion, text_sentiment)
state = {**state, "final_prompt": prompt}
return state, text, voice_result, text_result, prompt
except Exception as e:
print(f"Error in analyze_voice: {str(e)}")
return state, f"오류 발생: {str(e)}", "", "", ""
def generate_detailed_prompt(text, emotions, text_sentiment):
# 기존 감정 매핑 유지
emotion_colors = {
"기쁨/열정": "밝은 노랑과 따뜻한 주황색",
"분노/강조": "강렬한 빨강과 짙은 검정",
"놀람/흥분": "선명한 파랑과 밝은 보라",
"관심/호기심": "연한 하늘색과 민트색",
"슬픔/우울": "어두운 파랑과 회색",
"피로/무기력": "탁한 갈색과 짙은 회색",
"평온/안정": "부드러운 초록과 베이지",
"차분/진지": "차분한 남색과 깊은 보라"
}
abstract_elements = {
"기쁨/열정": "상승하는 나선형과 빛나는 입자들",
"분노/강조": "날카로운 지그재그와 폭발하는 형태",
"놀람/흥분": "물결치는 동심원과 반짝이는 점들",
"관심/호기심": "부드럽게 흐르는 곡선과 floating shapes",
"슬픔/우울": "하강하는 흐름과 흐릿한 그림자",
"피로/무기력": "느리게 흐르는 물결과 흐려지는 형태",
"평온/안정": "부드러운 원형과 조화로운 기하학적 패턴",
"차분/진지": "균형잡힌 수직선과 안정적인 구조"
}
# 텍스트에서 주요 감정 키워드 추출
text_emotions = text_sentiment["label"].lower().split(", ")
emotion_keywords = set()
for emotion in text_emotions:
for key in emotion_colors.keys():
if emotion in key.lower():
emotion_keywords.add(key)
# 기본 프롬프트 구성
prompt = f"minimalistic abstract art, "
# 주요 감정 색상과 요소 통합
colors = []
elements = []
for emotion in emotion_keywords:
if emotion in emotion_colors:
colors.append(emotion_colors[emotion])
elements.append(abstract_elements[emotion])
prompt += f"{', '.join(colors) if colors else emotion_colors[emotions['primary']]} color scheme, "
prompt += f"{', '.join(elements) if elements else abstract_elements[emotions['primary']]}, "
# 기본 요소 추가
prompt += "korean traditional patterns, ethereal atmosphere, sacred geometry, "
prompt += "flowing energy, mystical aura, no human figures, no faces, "
prompt += "digital art, high detail, luminescent effects. "
prompt += "negative prompt: photorealistic, human, face, figurative, text, letters, "
prompt += "--ar 2:3 --s 750 --q 2"
return prompt
def generate_image_from_prompt(prompt):
if not prompt:
print("No prompt provided")
return None
try:
response = requests.post(
API_URL,
headers=headers,
json={
"inputs": prompt,
"parameters": {
"negative_prompt": "ugly, blurry, poor quality, distorted",
"num_inference_steps": 30,
"guidance_scale": 7.5
}
}
)
if response.status_code == 200:
timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")
image_path = f"generated_images/image_{timestamp}.png"
os.makedirs("generated_images", exist_ok=True)
with open(image_path, "wb") as f:
f.write(response.content)
return image_path
else:
print(f"Error: {response.status_code}")
print(f"Response: {response.text}")
return None
except Exception as e:
print(f"Error generating image: {str(e)}")
return None
def create_pwa_files():
"""PWA 필요 파일들 생성"""
# manifest.json 생성
manifest_path = 'static/manifest.json'
if not os.path.exists(manifest_path):
manifest_data = {
"name": "디지털 굿판",
"short_name": "디지털 굿판",
"description": "현대 도시 속 디지털 의례 공간",
"start_url": "/",
"display": "standalone",
"background_color": "#0b0f19",
"theme_color": "#0b0f19",
"orientation": "portrait",
"categories": ["art", "entertainment"],
"lang": "ko",
"dir": "ltr",
"prefer_related_applications": false,
"icons": [
{
"src": "/static/icons/icon-72x72.png",
"sizes": "72x72",
"type": "image/png",
"purpose": "any maskable"
},
{
"src": "/static/icons/icon-96x96.png",
"sizes": "96x96",
"type": "image/png",
"purpose": "any maskable"
},
{
"src": "/static/icons/icon-128x128.png",
"sizes": "128x128",
"type": "image/png",
"purpose": "any maskable"
},
{
"src": "/static/icons/icon-144x144.png",
"sizes": "144x144",
"type": "image/png",
"purpose": "any maskable"
},
{
"src": "/static/icons/icon-152x152.png",
"sizes": "152x152",
"type": "image/png",
"purpose": "any maskable"
},
{
"src": "/static/icons/icon-192x192.png",
"sizes": "192x192",
"type": "image/png",
"purpose": "any maskable"
},
{
"src": "/static/icons/icon-384x384.png",
"sizes": "384x384",
"type": "image/png",
"purpose": "any maskable"
},
{
"src": "/static/icons/icon-512x512.png",
"sizes": "512x512",
"type": "image/png",
"purpose": "any maskable"
}
],
"screenshots": [
{
"src": "/static/screenshots/screenshot1.png",
"sizes": "1280x720",
"type": "image/png",
"label": "홈 화면"
}
]
}
with open(manifest_path, 'w', encoding='utf-8') as f:
json.dump(manifest_data, f, ensure_ascii=False, indent=2)
# service-worker.js 생성
sw_path = 'static/service-worker.js'
if not os.path.exists(sw_path):
with open(sw_path, 'w', encoding='utf-8') as f:
f.write('''
// 캐시 이름 설정
const CACHE_NAME = 'digital-gutpan-v1';
// 캐시할 파일 목록
const urlsToCache = [
'/',
'/static/icons/icon-72x72.png',
'/static/icons/icon-96x96.png',
'/static/icons/icon-128x128.png',
'/static/icons/icon-144x144.png',
'/static/icons/icon-152x152.png',
'/static/icons/icon-192x192.png',
'/static/icons/icon-384x384.png',
'/static/icons/icon-512x512.png',
'/assets/main_music.mp3'
];
// 서비스 워커 설치 시
self.addEventListener('install', event => {
event.waitUntil(
caches.open(CACHE_NAME)
.then(cache => cache.addAll(urlsToCache))
.then(() => self.skipWaiting())
);
});
// 서비스 워커 활성화 시
self.addEventListener('activate', event => {
event.waitUntil(
caches.keys().then(cacheNames => {
return Promise.all(
cacheNames.map(cacheName => {
if (cacheName !== CACHE_NAME) {
return caches.delete(cacheName);
}
})
);
}).then(() => self.clients.claim())
);
});
// 네트워크 요청 처리
self.addEventListener('fetch', event => {
event.respondWith(
caches.match(event.request)
.then(response => {
if (response) {
return response;
}
return fetch(event.request);
})
);
});
'''.strip())
# index.html 파일에 화면 꺼짐 방지 스크립트 추가
index_path = 'templates/index.html'
if not os.path.exists(index_path):
with open(index_path, 'w', encoding='utf-8') as f:
f.write('''
디지털 굿판
''')
def safe_state_update(state, updates):
try:
new_state = {**state, **updates}
# 중요 상태값 검증
if "user_name" in updates:
new_state["user_name"] = str(updates["user_name"]).strip() or "익명"
if "baseline_features" in updates:
if updates["baseline_features"] is None:
return state # baseline이 None이면 상태 업데이트 하지 않음
return new_state
except Exception as e:
print(f"State update error: {e}")
return state
def create_interface():
db = SimpleDB()
import base64
# initial_state 정의
initial_state = {
"user_name": "",
"baseline_features": None,
"reflections": [], # 여기에 사용자의 모든 기록을 누적
"wish": None,
"final_prompt": "",
"image_path": None,
"current_tab": 0
}
def encode_image_to_base64(image_path):
try:
with open(image_path, "rb") as img_file:
return base64.b64encode(img_file.read()).decode()
except Exception as e:
print(f"이미지 로딩 에러 ({image_path}): {e}")
return ""
# 로고 이미지 인코딩
mobile_logo = encode_image_to_base64("static/DIGITAL_GUTPAN_LOGO_m.png")
desktop_logo = encode_image_to_base64("static/DIGITAL_GUTPAN_LOGO_w.png")
main_image = encode_image_to_base64("static/main-image.png")
if not mobile_logo or not desktop_logo:
logo_html = """
"""
# 모바일 및 데스크톱용 위치 이미지를 Base64로 인코딩
location_image_mobile = encode_image_to_base64("static/location.png")
location_image_desktop = encode_image_to_base64("static/location_w.png")
# location_html 정의
if not location_image_mobile or not location_image_desktop:
location_html = """
""")
gr.Markdown("""
**청신(淸神)** 단계는 신을 부르는 의식으로, 정화와 연결의 의미를 담고 있습니다.
이 단계에서는 참여자가 도시의 번잡함에서 벗어나 내면의 고요함을 찾고 신성과의 교감을 시작하게 됩니다.
본격적인 의식을 시작하기 전, 마음을 정화하고 감각을 열어 경험에 몰입할 준비를 마치세요
""")
with gr.Column():
gr.HTML(location_html)
gr.Markdown("""
### 보다 몰입된 경험을 위해
이 경험은 부산 동래구 온천장역에서 시작하여, 금정구 장전역까지 온천천을 따라 신화적 공간과 연결될 수 있도록 설계되었습니다.
특히 이곳에서 시작하면 온천천의 자연스러운 소리와 금샘의 생명력을 더욱 깊이 느낄 수 있습니다.
온천천을 따라 걷다 보면, 금샘과 연결된 물의 정화 에너지가 스며들며 신성을 느끼게 될 것입니다.
청신 단계의 목적은 참여자들이 자연과 신화적 요소를 통해 감각을 깨우고 자신의 감정을 정화하며, 초자연적 존재와 소통할 준비를 하는 데 있습니다.
특히 온천천의 물소리와 자연의 소리는 신을 부르는 소리처럼 참여자의 마음을 고요하게 하고, 금샘 신화의 정화와 생명력의 상징성을 통해 신을 맞이할 준비를 갖추게 합니다.
### 이제 음악을 들으며 감정을 기록해보세요.
음악을 통해 내면의 평온을 되찾고, 이 과정에서 느껴지는 감정과 생각들을 자유롭게 적어보세요. 이 기록은 이후 과정에서 소망과 의식을 구체화하는 데 큰 도움이 될 것입니다.
""")
# 커스텀 오디오 플레이어
gr.Markdown("## 聽身, 請神 (몸의 소리를 듣고 신을 청하다) ")
gr.HTML("""
음악을 들으며 마음을 정화하고 내면의 소리에 귀를 기울여보세요.
""")
with gr.Column():
reflection_input = gr.Textbox(
label="기록과 함께 마음의 번잡함을 내려놓으세요. 본 정보는 작성 당사자 외는 확인할 수 없으며, 저장되지 않습니다.",
lines=3,
max_lines=5
)
save_btn = gr.Button("기록 남기기", variant="secondary")
reflections_display = gr.Dataframe(
headers=["시간", "감상", "감정 분석"],
label="기록된 감상들",
value=[],
interactive=False,
wrap=True,
row_count=(5, "dynamic")
)
# 기원 탭
with gr.TabItem("기원") as tab_wish:
gr.Markdown("## 기원 - 소망을 천명하고 신에게 바라는 의식체")
gr.Markdown("""
'기원' 단계에서는 참여자가 산책로를 걷는 동안 자신의 감정과 내면을 인식하고, 마음속 소망을 음성으로 표현합니다.
입에서 나오는 소리는 단순한 음성이 아니라, 신령이나 자연에 자신의 진정한 소망과 감정을 전달하는 중요한 발화입니다.
이제 당신의 소망을 음성으로 발화해보세요. 이 발화는 신과의 의식적인 소통의 일부로,
참여자의 소망이 신성의 영역에 닿을 수 있도록 돕습니다.
마음속에서 떠오르는 바람을 말해보세요. 이 과정은 소망을 명확하게 정리하고,
당신의 감정과 바람을 외부로 표현하는 강력한 의식적 행동이 될 것입니다.
""")
status_display = gr.Markdown("", visible=False) # 상태 표시용 컴포넌트
with gr.Row():
with gr.Column():
voice_input = gr.Audio(
label="당신의 소원을 말해주세요",
sources=["microphone"],
type="numpy",
streaming=False,
elem_id="voice-input" # elem_id 추가
)
with gr.Row():
clear_btn = gr.Button("녹음 지우기", variant="secondary")
analyze_btn = gr.Button("소원 분석하기", variant="primary")
with gr.Column():
transcribed_text = gr.Textbox(
label="인식된 텍스트",
interactive=False
)
voice_emotion = gr.Textbox(
label="음성 감정 분석",
interactive=False
)
text_emotion = gr.Textbox(
label="텍스트 감정 분석",
interactive=False
)
# 송신 탭
with gr.TabItem("송신") as tab_send:
gr.Markdown("## 송신 - 신과 내 마음을 보내다")
gr.Markdown("""
송신 단계는 참여자가 내면의 소망을 더욱 구체화하여 외부로 전달하는 중요한 과정입니다.
이 과정에서, 발화된 언어와 감정이 담긴 소망은 시각적 이미지로 표현됩니다..
아래 버튼을 눌러 자신의 소망을 그림으로 그려 보세요.
이 그림은 발화된 감정의 흐름과 참여자의 소망을 상징적으로 담아내어 눈에 보이는 형상으로 재현됩니다.
생성된 이미지를 통해 내면의 바람이 어떻게 구체화되는지 경험하고,
당신의 소망이 전해지는 과정을 시각적으로 확인해 보세요.
""")
final_prompt = gr.Textbox(
label="생성된 프롬프트",
interactive=False,
lines=3
)
generate_btn = gr.Button("마음의 그림 그리기", variant="primary")
result_image = gr.Image(
label="생성된 이미지",
show_download_button=True
)
gr.Markdown("## 온천천에 전하고 싶은 소원을 남겨주세요")
final_reflection = gr.Textbox(
label="소원",
placeholder="당신의 소원을 한 줄로 남겨주세요...",
max_lines=3
)
save_final_btn = gr.Button("소원 전하기", variant="primary")
gr.Markdown("""
💫 여러분의 소원은 11월 28-29일 부산대 지하철역 인근 온천천 벽면에 설치될 소원나무에 전시될 예정입니다.
따뜻한 마음을 담아 작성해주세요.
""")
wishes_display = gr.Dataframe(
headers=["시간", "소원", "이름"],
label="기록된 소원들",
value=[],
interactive=False,
wrap=True
)
with gr.TabItem("프로젝트 소개") as tab_intro:
gr.HTML(main_image_html)
gr.Markdown("""
# 디지털 굿판: 몰입형 다원예술 프로젝트
**디지털 굿판**은 부산문화재단의 지원을 받아 창작된 몰입적 다원예술 작품으로, 전통적 세습무의 의례적 구조를 현대적 디지털 공간에서 재해석한 디지털 의례 공간입니다. 이 프로젝트는 한국 전통 굿 의식의 세습무 의례를 바탕으로, AI 기술, 음악, 자연, 그리고 일상 공간이 융합된 독창적 경험을 제공합니다. 참여자는 이 의례적 경험을 통해 내면의 정화와 신성에의 초월적 연결을 체험하고, 일상과 신성의 경계를 허물며 삶의 본질에 대한 질문을 던지게 됩니다.
### 디지털 굿판은 세 가지 주요 의례적 단계로 구성됩니다:
1. **청신(淸神)**: 정화와 신성에의 준비 과정으로, 참여자가 도시의 번잡함에서 벗어나 자연과 신화적 소리를 통해 내면을 정화합니다. 온천천의 물소리와 루츠리딤의 음악은 굿 의식의 정화 단계를 음악으로 변형하여, 신을 부르는 초월적 의식에 몰입하게 합니다.
2. **기원**: 참여자는 자신의 감정과 소망을 발화하여 의례적 상징성을 더합니다. 강신무의 트랜스 경험을 재현한 음악과 함께, AI가 발화된 감정을 분석하고 이를 시각적 데이터로 변환합니다. 이 시각화는 금샘의 신화적 상징성을 재해석하여 개인의 소망을 신성과 연결하는 예술적 매개체로 작용합니다.
3. **송신**: 마지막 단계에서는 정화와 기원을 거쳐 구체화된 소망을 상징적 시각 표현으로 전환하여 외부로 전달합니다. AI와 디지털 기술이 결합하여 참여자의 내면적 바람을 외부로 확장하고, 예술적 시각 언어를 통해 신성에 도달하는 과정을 형상화합니다.
**디지털 굿판**은 전통 신화와 예술, 첨단 AI 기술이 융합하여 신과 인간의 교감, 내면과 외부의 경계를 탐구하는 예술적 시도입니다. 전통적 굿의 치유적 효과를 현대의 감각적 경험으로 체화하며, 예술과 기술의 융합을 통해 새로운 의례와 감정의 형식을 제안합니다. 이 프로젝트는 전통을 기반으로 한 감각적 초월의 경험을 디지털 시대의 언어로 재해석하여, 예술의 확장 가능성과 현대 사회에서의 치유적 역할을 고찰하는 다원예술의 새로운 지평을 제시합니다.
## 루츠리딤
세계 각 국의 전통장단을 연구하고 현대적으로 재해석하는 월드뮤직 트랜스 그룹. 종으로는 정통과 현대를, 횡으로는 동양과 서양을 한데 아우르며 새로운 장르의 차별화된 월드뮤직을 개척
국악기로 서양음악을 연주하는 평범한 퓨전국악 프레임에서 탈피, 동서양의 콜라보레이션으로 퓨처국악을 표방하는 실험적 예술단체입니다.
Instagram [@roots_redeem](https://www.instagram.com/roots_redeem/)
## 윤리조항
디지털 굿판은 현대 사회에서 예술과 기술이 교차하는 지점에서, 삶과 치유에 대한 근본적인 질문을 던집니다. 프로젝트 중 기록된 모든 정보(목소리, 감상 등)는 ‘송신’ 단계의 ‘소원전하기’를 제외하고는 별도로 저장되지 않으며, AI 학습이나 외부 공유에 사용되지 않습니다.
## CREDITS
- **기획**: 루츠리딤, 전승아
- **음악**: 루츠리딤 (이광혁)
- **미디어아트**: 송지훈
""")
# 이벤트 핸들러들
def handle_name_submit(name, state):
if not name.strip():
return (
gr.update(visible=True),
gr.update(visible=False),
gr.update(visible=False),
state
)
state = safe_state_update(state, {"user_name": name})
return (
gr.update(visible=False),
gr.update(visible=True),
gr.update(visible=False),
state
)
def handle_continue():
return (
gr.update(visible=False),
gr.update(visible=False),
gr.update(visible=True)
)
def handle_blessing_complete(audio, state):
# 분석 중 메시지 표시
initial_status = "분석 중입니다. 잠시만 기다려주세요..."
# 오디오가 없을 경우 바로 메시지 반환
if audio is None:
return state, "축원 문장을 먼저 녹음해주세요.", initial_status
try:
sr, y = audio
features = calculate_baseline_features((sr, y))
# 분석이 완료된 경우
if features:
state = safe_state_update(state, {"baseline_features": features})
detailed_msg = f"""
### 축원 분석이 완료되었습니다
**음성 특성 분석:**
- 음성 강도: {features['energy']:.2f}
- 음성 속도: {features['tempo']:.2f}
- 음성 높낮이: {features['pitch']:.2f}
- 음성 크기: {features['volume']:.2f}
축원이 완료되었습니다. 이제 청신 탭으로 이동하여 의식을 진행해주세요.
"""
return state, detailed_msg, "" # 초기 상태는 비워서 완료 상태로 만듭니다.
# 분석 실패 시 메시지
return state, "분석에 실패했습니다. 다시 시도해주세요.", initial_status
except Exception as e:
return state, f"오류가 발생했습니다: {str(e)}", initial_status
def handle_enter():
return gr.update(selected=1) # 청신 탭으로 이동
def handle_start():
return gr.update(visible=False), gr.update(visible=True)
def handle_baseline(audio, current_state):
if audio is None:
return current_state, "음성을 먼저 녹음해주세요.", gr.update(selected=0)
try:
sr, y = audio
y = y.astype(np.float32)
features = calculate_baseline_features((sr, y))
if features:
current_state = safe_state_update(current_state, {
"baseline_features": features,
"current_tab": 1
})
return current_state, "기준점이 설정되었습니다. 청신 탭으로 이동합니다.", gr.update(selected=1)
return current_state, "기준점 설정에 실패했습니다. 다시 시도해주세요.", gr.update(selected=0)
except Exception as e:
print(f"Baseline error: {str(e)}")
return current_state, "오류가 발생했습니다. 다시 시도해주세요.", gr.update(selected=0)
def move_to_chungshin():
return gr.Tabs.update(selected="청신")
def handle_save_reflection(text, state):
if not text.strip():
return state, []
try:
current_time = datetime.now().strftime("%Y-%m-%d %H:%M:%S")
name = state.get("user_name", "익명")
# 감정 분석
if text_analyzer:
sentiment = text_analyzer(text)[0]
sentiment_text = f"{sentiment['label']} ({sentiment['score']:.2f})"
else:
sentiment_text = "분석 불가"
# 현재 사용자의 기존 reflections 가져오기
if "reflections" not in state:
state["reflections"] = []
# 새로운 reflection 추가
new_reflection = {
"timestamp": current_time,
"text": text,
"sentiment": sentiment_text
}
state["reflections"].append(new_reflection)
# DB에 저장
db.save_reflection(name, text, sentiment_text)
# 화면에 표시할 데이터 생성 (현재 사용자의 모든 기록)
display_data = [
[r["timestamp"], r["text"], r["sentiment"]]
for r in state["reflections"]
]
return state, display_data
except Exception as e:
print(f"Error saving reflection: {e}")
return state, []
def save_reflection_fixed(text, state):
if not text.strip():
return state, []
try:
current_time = datetime.now().strftime("%Y-%m-%d %H:%M:%S")
name = state.get("user_name", "익명")
if text_analyzer:
sentiment = text_analyzer(text)[0]
sentiment_text = f"{sentiment['label']} ({sentiment['score']:.2f})"
else:
sentiment_text = "분석 불가"
# DB에 저장
db.save_reflection(name, text, sentiment_text)
# 현재 사용자의 감상만 표시
return state, [[current_time, text, sentiment_text]]
except Exception as e:
print(f"Error saving reflection: {e}")
return state, []
def handle_save_wish(text, state):
if not text.strip():
return "소원을 입력해주세요.", []
try:
name = state.get("user_name", "익명")
db.save_wish(name, text)
wishes = db.get_all_wishes()
wish_display_data = [
[wish["timestamp"], wish["wish"], wish["name"]]
for wish in wishes
]
return "소원이 저장되었습니다.", wish_display_data
except Exception as e:
print(f"Error saving wish: {e}")
return "오류가 발생했습니다.", []
def safe_analyze_voice(audio_data, state):
if audio_data is None:
return state, "음성을 먼저 녹음해주세요.", "", "", "", "분석 준비 중..."
try:
status_msg = "음성 분석 중..."
sr, y = audio_data
if len(y) == 0:
return state, "음성이 감지되지 않았습니다.", "", "", "", "분석 실패"
# 음성 특성 분석
acoustic_features = calculate_baseline_features((sr, y))
# 기존 분석 함수 호출
new_state, text, voice_result, text_result, prompt = analyze_voice(audio_data, state)
# 청신 단계의 누적된 기록들을 프롬프트에 통합
if "reflections" in new_state:
accumulated_emotions = []
accumulated_texts = []
for reflection in new_state["reflections"]:
accumulated_texts.append(reflection["text"])
if "sentiment" in reflection:
accumulated_emotions.append(reflection["sentiment"])
# 프롬프트 생성 시 누적된 감정과 텍스트 반영
enhanced_prompt = generate_detailed_prompt(
text=f"{text} || Previous reflections: {' | '.join(accumulated_texts)}",
emotions=map_acoustic_to_emotion(acoustic_features, new_state.get("baseline_features")),
text_sentiment={"label": ", ".join(accumulated_emotions), "score": 1.0}
)
return new_state, text, voice_result, text_result, enhanced_prompt, "분석 완료"
return new_state, text, voice_result, text_result, prompt, "분석 완료"
except Exception as e:
print(f"Voice analysis error: {str(e)}")
return state, "음성 분석 중 오류가 발생했습니다.", "", "", "", "분석 실패"
# 이벤트 연결
name_submit_btn.click(
fn=handle_name_submit,
inputs=[name_input, state],
outputs=[welcome_section, story_section, blessing_section, state]
)
continue_btn.click(
fn=handle_continue,
outputs=[story_section, welcome_section, blessing_section]
)
set_baseline_btn.click(
fn=handle_blessing_complete,
inputs=[baseline_audio, state],
outputs=[state, blessing_status, processing_status]
)
save_btn.click(
fn=handle_save_reflection,
inputs=[reflection_input, state],
outputs=[state, reflections_display]
)
clear_btn.click(
fn=lambda: None,
outputs=[voice_input]
)
analyze_btn.click(
fn=safe_analyze_voice,
inputs=[voice_input, state],
outputs=[state, transcribed_text, voice_emotion, text_emotion, final_prompt, status_display]
)
generate_btn.click(
fn=generate_image_from_prompt,
inputs=[final_prompt],
outputs=[result_image]
)
save_final_btn.click(
fn=handle_save_wish,
inputs=[final_reflection, state],
outputs=[blessing_status, wishes_display]
)
return app
@app.route('/static/')
def serve_static(path):
return send_from_directory('static', path)
@app.route('/')
def index():
return render_template('index.html')
@app.route('/assets/')
def serve_assets(path):
return send_from_directory('assets', path)
@app.route('/manifest.json')
def serve_manifest():
return send_from_directory('static', 'manifest.json')
@app.route('/service-worker.js')
def serve_service_worker():
return send_from_directory('static', 'service-worker.js')
@app.route('/wishes/')
def serve_wishes(path):
return send_from_directory('data/wishes', path)
if __name__ == "__main__":
# 환경변수 로드
load_dotenv()
# 필요한 디렉토리 생성
required_dirs = [
'static',
'assets',
'data',
'generated_images',
'templates'
]
for directory in required_dirs:
os.makedirs(directory, exist_ok=True)
# PWA 파일 생성
create_pwa_files()
# 오디오 파일 체크
audio_path = os.path.join('assets', 'main_music.mp3')
if os.path.exists(audio_path):
print(f"✅ Audio file found: {audio_path}")
print(f" Size: {os.path.getsize(audio_path)} bytes")
print(f" Absolute path: {os.path.abspath(audio_path)}")
else:
print(f"❌ Audio file not found: {audio_path}")
# Gradio 인터페이스 생성
demo = create_interface()
# Gradio 앱 실행
demo.queue().launch(
server_name="0.0.0.0",
server_port=7860,
share=True,
debug=True,
show_error=True,
height=None,
width="100%",
favicon_path="static/icons/icon-72x72.png"
)