Home » CT SPOTLIGHT, CT 뉴스

[CT Spotlight] 2019 CTSCAPE : Open Lab

June.2019 No Comment

1

2019 CTSCAPE 행사 중 둘째 날에는 연구실을 소개하는 Open Lab이 개최되었습니다. 오전에는 문화기술대학원에 진학을 희망하는 예비 신입생을 대상으로 입시설명회가 진행되었습니다. 오후에는 입시설명회에 참여한 학생들이 각 연구실을 돌아다니며 연구실에서 준비한 데모를 보고, 실제 연구실 인력들과 이야기할 수 있는 기회를 가졌습니다. VML, MCL, UVR, MAC lab, IM lab, GLL으로 6개의 연구실이 데모에 참여했습니다. 또한 DH lab, IBD lab, Q lab, ET lab이 패널 전시로 함께하였습니다. 이번 기사에서는 각 연구실에서 준비한 데모와 패널 전시를 사진과 함께 소개하겠습니다.

1

 VML, MCL UVR

1

 IML, MAC, GLL

 

Visual Media Lab (VML, 노준용 교수님)

1

1

1

 ScreenX, IIS, Motion Capture & Virtual Reality

ScreenX : 전면 스크린을 넘어 양쪽 벽면까지 3면을 스크린으로 활용하는 몰입형 상영 시스템입니다. CGV와 공동 개발한 스크린X는 좌우 면을 추가해 폭넓은 영상과 시각특수효과를 통해 더욱 입체적인 영상을 제공합니다.

IIS(Immersive & Interactive Space) : 가정 및 개인 환경에서 설치할 수 있는 몰입형 상호작용 공간(Immersive & Interactive Space)입니다. 3면이 스크린인 몰입형 공간에서 키넥트와 카메라를 통해 사용자의 행동을 인식하여 게임을 플레이할 수 있습니다.

Motion Capture & Virtual Reality : 모션 캡쳐 시스템과 HMD 디바이스를 활용하여 물체와 사람의 행동을 인식합니다. 동작 인식 시스템을 활용하여 사용자가 VR 게임을 즐길 수 있습니다.

 

Motion Computing Lab (MCL, 이성희 교수님)

1

1

 아바타 매개 텔레프레젠스 시스템

정적 스캔 데이터로부터 신체 및 의복 분리 및 복원 자동화 기술 : 정적 스캔 데이터에서 의복을 신체에서 분리하는 기술입니다. 데이터와 최대로 유사한 신체 형상과 의복을 복원하여 의복을 자동적으로 시뮬레이션할 수 있습니다.

아바타 매개 텔레프레젠스 시스템 – 이형 공간에 대한 아바타 동작 생성 기술 소개 :
텔레프레젠스 (telepresence) 기술은 멀리 떨어진 사람들이 서로 가까이에 존재하는 것처럼 느낄 수 있는 가상환경 기술입니다. 두 명의 사용자가 텔레프레젼트 공간 안에 있을 때, 자신의 아바타가 상대방 공간에서 자연스럽게 행동하게 하기 위한 아바타 동작 생성 기술입니다.

 

Ubiquitous Virtual Reality Lab (UVR lab, 우운택 교수님)

1

1

1

 K-Culture Time Machine, 스마트 관광 지원 AR/VR 어플리케이션

1

1

 360도 이미지 기반의 상호작용형 가상현실 구축 기술

1

 초실감 원격 가상 인터랙션 기술

K-Culture Time Machine, 스마트 관광 지원 AR/VR 어플리케이션 : 스마트 관광 지원을 위한 AR/VR 어플리케이션입니다. 사용자가 문화 유적을 방문하거나 원격으로 접속하였을 때, 문화 유적에 대한 정보를 AR/VR 기능을 통하여 제공받는 기술입니다.

360도 이미지 기반의 상호작용형 가상현실 구축 기술 : 사용자가 자유롭게 움직이며 주변 환경과 상호작용할 수 있는 가상환경 기술입니다. 360도 영상을 사용해서 사용자는 환경을 인지하고 주변 사물과 상호작용할 수 있습니다.

초실감 원격 가상 인터랙션 기술 : 원격의 사용자와의 협업을 지원하기 위한 가상 인터랙션 기술입니다. 스마트 안경과 착용형 센서를 이용하여 손의 관절 및 근감각을 추정해 멀리 떨어진 사용자의 행동을 인식할 수 있습니다.

 

Music and Audio Computing Lab (MAC lab, 남주한 교수님)

1

 Content-based Music Retrieval

1

 AI Pianist

1

 Singing Voice Conversion and Synthesis

Content-based Music Retrieval : 아티스트 인식 및 유사도를 이용해 음악을 검색하는 기술입니다. 음악의 자연어을 기반으로 검색해서 음악을 자동으로 태깅합니다.

AI Pianist : 주어진 악보에 대하여 다양한 스타일로 연주하는 기술입니다. 딥러닝 네트워크에 악보 및 연주 데이터를 넣어주면 사용자가 정한 스타일에 따라 연주 스타일이 변합니다.

Singing Voice Conversion and Synthesis : 사용자의 목소리에 가수의 가창 표현 (박자, 음정, 음량)을 이식하는 기술입니다. 악보와 가사로부터 가상의 보컬 목소리를 합성합니다.

 

Interactive Media Lab (IM lab, 이병주 교수님)

1

 FDSense

1

 ACT-R 모델 및 물체 인식 기반 영화의 시각적 역동성 측정

FDSense : FDSense는 터치패드에서 측정된 힘과 접촉 면적을 동시에 관찰함으로써 터치 표면과 물리적으로 충돌하는 엔드 이펙터의 탄성 계수와 강성을 평가할 수 있는 새로운 터치 기술입니다.

ACT-R 모델 및 물체 인식 기반 영화의 시각적 역동성 측정 : 영화의 시각적 역동성을 컴퓨터를 통해 자동으로 측정하는 모델을 제안하고, 다양한 영상매체에서의 시선의 이동 및 인지적 오버로드를 사전에 검토하는 것을 목표로 합니다.

Geometric Compensation of Latency : 플레이어가 경험하는 게임의 입력 레이턴시의 효과를 상쇄할 수 있도록 게임의 겉보기 형태를 변화시키는 방법으로, 비간섭적 게임 난이도 보정 기술입니다.

Predicting Error Rates in Pointing Regardless of Target Motion : 마우스로 포인팅을 하는 과정에서 인지와 관련된 개개인 고유의 parameter를 추출하고, 마우스와 타겟의 궤적으로부터 얻는 변수를 통해 사용자의 Error rate을 예측하여 계산할 수 있는 수학적 모델을 제시합니다.

 

Games and Life Lab (GLL, 도영임 교수님)

1

1

 Increasing the Accuracy of Interaction between Player and Virtual Object in VR Rhythm Game Environment

Increasing the Using Story Plot : 초보자의 플레이 의도 향상을 위해 스토리 플롯을 활용해서 리듬게임을 디자인하는 연구입니다.

Increasing the Accuracy of Interaction between Player and Virtual Object in VR Rhythm Game Environment : VR 리듬 게임 환경에서 플레이어와 가상 오브젝트의 상호작용 정확도를 향상시켜 플레이어가 게임에 몰입할 수 있게 하는 연구입니다.

 

한편 Open Lab의 일환으로 DH lab (안재홍 교수님), IBD lab (이지현 교수님), Q lab (박주용 교수님), ET lab(우성주 교수님)은 데모에 참여하는 대신 N25동 앞 가든에서 패널 전시를 진행했습니다. 무더운 날씨에도 찾아주신 분들을 위해 해당 연구실에 소속된 학생들이 상주하면서 질의 응답하는 시간을 가졌습니다. 데모와 패널 전시에 참여한 랩들을 비롯해 문화기술대학원의 연구실을 더 알아보고 싶은 분들은 입시설명회 기사를 참고해주세요.
입시설명회 기사 보러가기

1

이상으로 2019 CTSCAPE의 Open Lab이었습니다. 예비 신입생들에겐 문화기술대학원에 속한 연구실에 대해 알아볼 수 있는 기회가 되었고, 대학원생에게는 각 연구실의 성과를 교류할 수 있는 공간이 되었던 것 같습니다. 다음 해의 CTSCAPE가 벌써부터 기대되는데요. 데모를 진행하는 데 힘써주신 모든 학우들께 감사의 말씀을 드립니다.

장인서(isjang08@kaist.ac.kr)