2026 (10)
2025 (62)
2024 (55)
2023 (53)
2022 (56)
2021 (51)
2020 (52)
2019 (50)
2018 (53)
2017 (67)
2016 (61)
2015 (54)
2014 (54)
2013 (56)
2012 (56)
2011 (55)
2010 (53)
2009 (44)
2008 (32)
2007 (40)
2006 (44)
2005 (30)
UFC를 사용하는 사용자는 U-TOPIA에서 제공하는 많은 서비스를 활용할 수 있다. 그러나 UFC가 배터리로 동작을 하기 때문에 사용시간이 제한된다. 우리 연구 팀은 사용자들이 공통의 목적, 예를 들어 인터넷 게임과 같은 일을 함에 있어서 사용자들의 lifetime을 늘리기 위해 cooperative networking (CoNet)이라고 부르는 새로운 network system을 제안하였다. CoNet에서는 둘 또는 그 이상의 사용자가 Bluetooth를 사용한 하나의 group을 형성한다. Master라고 부르는 하나의 UFC는 WLAN와 Bluetooth를 모두 사용하고, group에 속한 나머지 UFCs들의 패킷을 전달해 주는 역할을 한다. Group에서 master를 제외한 나머지를 slave라 하고, 이 UFC들은 오직 Bluetooth만을 사용한다. 하지만, 한 group에서 master가 모든 slave의 packet을 받아서 처리하기 때문에, CoNet에서 보안에 취약점이 발생할 수 있다. 이 문제를 해결하기 위하여, 우리는 AP와 slave사이의 채널을 encryption과 authentication을 통하여 보호하는 방법을 제안한다. 이 방법을 구현하게 위하여, IPsec standard를 사용하고, 수정하였다. 에너지 사용측면에서 IPsec을 사용하여 모든 패킷을 처리하는 데에는 오직 1.58 %의 overhead만이 존재한다.
When users use UFCs in U-TOPIA, they can utilize many services with a ubiquitous environment. Howeverthe lifetime of UFC is limited because it uses batteries. Our research team proposed a new network system,called a cooperative networking (CoNet), designed for extending group lifetime in which users have a commongoal like playing Internet game. In CoNet, two or more UFC users create a group connected by Bluetooth. OneUFC, called a master, turns on both WLAN and Bluetooth interfaces and transfers all packets of other UFCs,called slaves, which use only Bluetooth. However, because a master gets all packets of slaves, securityvulnerability can be a challenging issue in CoNet. In order to solve this security problem, we propose a methodof encrypting and authenticating the communication channel between an AP and slaves. To implement theproposed method, we utilized the IPsec standard and modified it. Our evaluation shows that the additionalenergy consumption of using IPsec is only 1.58 % overhead.
Body-based Metaphor를 사용하는 재난구조용 웨어러블 인터페이스 디자인
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 논문지 Vol.4 No.4 2008.12 pp.14-20
현재 재난상황에서 구조 활동을 하는 소방관들은 자신의 감각/인지 기관만을 가지고 상황에 대처하고 있다. 또한, 무전기를 통신 장비로 사용하는데 본부와의 통신만 가능하고 소방관들 사이에 통신 조차 지원해주지 않는다. 이러한 열악한 환경을 개선하고 소방관들의 안전을 도모하기 위해 적절한 재난 구조용 웨어러블 컴퓨터의 사용이 시급한 실정이다. 이 논문에서는 재난 상황 시나리오에 기반 한 인터액션 모델링, 인간공학적 제한 조건, 필수 기능들을 기반으로 웨어러블 인터페이스를 디자인 및 개발 하였다. 특히 Body-based Metaphor를 사용하여 반응속도와 정확도를 향상시키는 방법을 제안하였으며, 비디오 기반의 실험 환경을 구성하여 그 효율성을 검증하였다.
Timely access of critical information (e.g. map), computing services (e.g. navigational aid) andcommunication (e.g. broadcasting danger zones) can help fire fighting and rescue operations much moreeffective. As such, fire fighting assistance is an ideal application for wearable computers. This paper presentsa wearable interface for fire fighters designed based on the operating environment constraints, ergonomicaspects of the fire fighters and scenario-based task analysis. In particular, the proposed interface employs theconcept of the body-based metaphor for the user to respond to an event and/or enact the interface as fast aspossible. Our experimental study shows that using body-based metaphor helps users to respond faster andmore accurately compared to when using the naively designed wearable interface.
본 논문은 최근 저전력 요구가 중요시되는 센서네트워크의 센서 노드에 사용되는 프로세서에 관한 것이다. TI 사의 MSP430 프로세서 코어와 호환되는 프로세서를 비동기식 설계 기법을 적용하여 마이크로 컨트롤러 자체를 저전력화한다. 프로세서 코어 내부의 제어 로직을 AFSM (Asynchronous Finite State Machine)으로 기술하고 비동기전용 합성툴을 사용하여 게이트 수준으로 설계하였으며, 데이터 패스 로직은 동기식의 것과 동일하게 설계 하였다. 마지막으로 설계된 프로세서 코어를 게이트 수준에서 동기식 방법과 성능 및 에너지 소모를 비교하였다. 또한, 특화된 비동기식 언어를 사용한 상위수준 합성 방법으로 설계된 동일한 프로세서 코어와도 성능, 에너지 소모을 비교하였다. 0.13 um 공정에서 ideal 클록을 가정한 시뮬레이션 결과, 동기식에 비해서는 성능은 동일하였고 에너지는 31.9 % 덜 소모하였다. 상위수준 합성 방법의 비동기식 설계 방법과는 2.7배 성능이 향상되었고, 28.8 % 에너지를 덜 소모하는 것을 확인하였다.
With clockless design method an asynchronous version of MSP430 processor core was designed to pursuethe reduction of power consumption. We use data path of synchronous design without change, and, for controlpath, we described inner control logics using asynchronous finite state machine (AFSM) and generated gatelevel netlist. The asynchronous version of MSP430 core was compared with an already designedasynchronous MSP430 core which employed the high-level asynchronous tool flow based on a specializedlanguage and a clock based synchronous MSP430 core at 0.13 um CMOS technology. The maximumperformance of the high-level tool flow version was only 40.6 % of the synchronous or the AFSM version.The AFSM version saves the energy consumption of the synchronous version and the TiDE tool version byabout 31.9 % and 28.8 %, respectively.
휴대용 장치는 폼팩터의 크기 때문에 일반적으로 작은 화면을 가진다. 따라서 휴대용 장치에서 작은 화면으로 GUI를 사용하기가 힘들다. 이 논문에서는 Ubiquitous Space User Interface (UUI)를 제안함으로써 공간 자원을 활용하여 사용자가 휴대용 장치를 효율적이고 쉽게 제어하고 사용할 수 있도록 한다. UUI 환경에서는 휴대용 장치의 작은 GUI 환경을 다양한 물체를 포함하는 3D 물리 공간으로 확장시킨다. 즉, 휴대용 장치의 가상 아이콘이 마치 데스크탑의 바로 가기 아이콘처럼 3D 물리 공간에 매핑이 되는 것이다. 이러한 공간 자원을 활용하기 위해 링 형태의 3D 포인팅 장치가 개발되었다. 따라서 사용자는 작은 화면의 작은 아이콘을 사용하는 대신에 3D 물리 공간의 가상아이콘을 포인팅 장치를 이용하여 포인팅 함으로써 프로그램을 선택할 수 있게 된다. 또한 사용자는 이를 이용하여 프로그램을 실행 혹은 멈출 수 있게 된다. 우리는 중요한 시스템 파라미터를 추출하기 위하여 다수의 시뮬레이션을 거쳤으며 이를 실제 UUI 시스템에 적용하여 실제로 구현을 하였다.
A mobile device generally has a small display due to its compact form factor. It is definitely inconvenient touse the traditional Graphical User Interface (GUI) with a small display. In this paper, we propose the UbiquitousSpace User Interface (UUI) system which allows people to efficiently and easily control a mobile device usingspatial resources. In UUI, the small GUI environment of a mobile device is expanded into the 3D physical spacewhich includes various physical objects. The virtual icon of a program in a mobile device is mapped to 3Dphysical space as if making a shortcut icon in Desktop. A ring-type 3D pointing device has been developed tomanipulate the spatial resources. A user can select a program by pointing to a virtual icon in the physical spacewith the pointing device instead of clicking a tiny icon on a small touch screen. A user can also execute or stop a program with it. We have conducted a sort of simulations in design step toextract important system parameters and used these results to implement the prototype of UUI system.
본 연구는 의복에 장착되는 각 디지털 부품간의 연결 및 수납의 편리성을 증대시키기 위한 Hardware 디자인 Prototype 을 제안하여, Woven UFC 실용화를 목적으로 하였다. 각 기기 간의 전력 및 데이터의 전송은 생산기술연구소에서 제작한 밴드형의 디지털 섬유 구성요소를 사용하였으며, 디지털사로 직조된 밴드(band)사용을 전제로 한 제안임을 밝혀둔다. 연구 방법으로는 , 서울대 패션디자인 연구실에서 제작한 Woven UFC Prototype 의복 및 국내외에서 제작되는 장착 가능한 Wearable System을 대상으로 진행 하였다. 또한, 디지털 기기에 관심이 많은 얼리어답터를 대상으로 설문을 통하여 소비자 니즈를 파악 및 분석하였다. 디자인 방향으로는 의복에 들어가는 디지털 부품의 안전성 과 휴대성을 고려해 모듈화된 제품의 하드웨어를 디자인 하였다. 아울러 의복과 하드웨어간의 탈부착이 가능한 크래들(cradle)을 디자인하여 수납 및 보관을 용이하게 하였다. 의복에 장착된 크래들은 의복의 물성과 어울릴 수 있도록 실리콘 소재를 선택하여 착용시 이물감을 줄이도록 하였다.
This study is a proposal of hardware design Prototype for advanced convenience in connecting & storingprocess when attaching digital devices to clothes. the purpose of the study is to put Woven UFC to practicaluse. The band-type digital fibers made by KITEC(Korean Institute Industrial Technology) as the componenttools were used for transmitting electricity and data. The method of the study is Woven UFC Prototypegarments produced by Seoul National University Fashion Lab & attachable Wearable system from at home andabroad. The consumer needs id perceived and analyzed from focus interview / questionnaire of Early Adaptorswho have many interests in digital devices. With the result of the research, a modularized hardware design isproposed considered safety&mobility. Furthermore, designing cradle attach hardware to garments has clearedthe way of storing. The material of clothes is made of silicon to reduce the different feeling of material whenworn.
본 논문에서는 모션 캡쳐 시스템을 통해 퍼포머의 표정 퍼포먼스 정보를 획득하고 해부학적으로 분해한 후, 제작된 임의의 3차원 모델에 퍼포먼스 정보를 전이해서 3차원 얼굴 애니메이션을 생성하는 방법을 제안한다. 이를 위해 모션 캡쳐 데이터로부터 얼굴 모션을 해부학적으로 헤드, 턱, 피부 동작으로 분해하는 방법과 추출된 피부 근육 모션으로부터 얼굴 근육 제어 파라미터를 추출하는 기술 및 퍼포먼스 전이 엔진 기술을 연구하고 구현하였다. 이에 따라, 주로 인간의 몸체 애니메이션을 위해 사용하는 모션 캡쳐 데이터를 얼굴에도 적용하여 보다 자연스럽고 사실적인 얼굴 애니메이션을 실시간으로 생성해 내는 것이 가능해져서 3D 애니메이션, 영화 및 3D 게임 등 다양한 엔터테인먼트 분야에 적용가능하다.
In this paper, we propose the method that capture the facial performance information, decompose it byanatomic features, transfer it to the arbitrary 3D model, and finally produce the 3D facial animation. To realizethese ideas, our researches are focused on three major implementation issues : anatomic decomposition offacial motion into head, jaw and skin motion, abstraction of facial muscle control parameter, and performancetransition engine. As a result, it is possible to produce the natural and realistic facial animation in the areas of3D animation, films, and 3D games.
0개의 논문이 장바구니에 담겼습니다.
선택하신 파일을 압축중입니다.
잠시만 기다려 주십시오.