Earticle

현재 위치 Home

Issues

한국차세대컴퓨팅학회 논문지 [THE JOURNAL OF KOREAN INSTITUTE OF NEXT GENERATION COMPUTING]

간행물 정보
  • 자료유형
    학술지
  • 발행기관
    한국차세대컴퓨팅학회 [Korean Institute of Next Generation Computing]
  • pISSN
    1975-681X
  • 간기
    격월간
  • 수록기간
    2005 ~ 2026
  • 등재여부
    KCI 등재
  • 주제분류
    공학 > 컴퓨터학
  • 십진분류
    KDC 566 DDC 004
Vol.8 No.1 (9건)
No

논문

1

OFDMA 기반 다중사용자 시스템에서는 상향링크 피드백 형식으로 기지국에 보고되는 각 사용자의 채널 품질 정보(CQI)를 기반으로 사용자를 선택한다. 이를 위해 상향링크 채널의 오버헤드가 많이 요구되는 상세한 피드백 정보를 이용하거나 오버헤드는 적지만 불충분한 CQI 정보를 이용하는 방식은 상호 trade-off 관계에 있기 때문에 시스템 처리률을 최적화시키기에 어려움이 있다. 따라서 이 문제를 해결하기 위해, best-M 스케줄링 기법이 제안되었다. best-M 기법에서는 모든 서브채널에 대해서 CQI를 전송하는 대신에 M 서브채널의 CQI 만을 기지국으로 전송함으로써 상향링크 오버헤드를 줄일 수 있게 된다. 본 논문에서는 시스템의 처리량을 더 향상시키기 위해서, 능동적 사용자들의 수를 기반으로 M을 적응적으로 계산하는 적응적 best-M 피드백 스케줄링 방식을 제안하였다. 컴퓨터 시뮬레이션을 통한 제안 방식의 성능 분석 결과로부터 제안된 기법은 상향링크 오버헤드를 현저히 줄이면서 향상된 하향링크 처리률을 제공할 수 있음을 확인하였으며, 특히 best M 방식과 비교할 경우 동일 시스템에서 더 많은 동시 사용자를 지원할 수 있음을 확인하였다. 또한, 본 연구에서는 총 피드백 오버헤드 제한 조건에 따른 시스템 최적 처리률을 얻기 위한 중요 동작 포인트를 얻을 수 있었다.

For the case of a multiuser OFDMA system, users are opportunistically selected based on their individual Channel Quality Information (CQI) which have been reported to the Base Station (BS) in the form of uplink feedback. The feedback can either be detailed resulting in large feedback overhead or be partial resulting in small overhead but with insufficient CQI (which prohibit in accurately exploiting MUD). For either way, system throughput remains non optimal since there exists a trade-off in the amount and quality of feedback. Hence to address this issue, partial feedback with best-M scheduling has been previously proposed, where only CQI of M subchannels are reported to BS instead of reporting about all subchannels which thus reduces the uplink overhead. In this paper, to further increase the system throughput, we propose an adaptive best-M feedback scheduling where M is adaptively calculated based on the number of active users in the system. Through computer simulations, we show that the proposed scheme offers higher or equal downlink throughput with remarkably reduced uplink overhead, and increases the system capacity to support larger number of users simultaneously, in comparison to the best-M scheduling scheme. In addition, under the given constraint of the total feedback overhead, we investigated the critical operating points to fit optimal throughput in the system.

2

무선 센서 네트워크를 구성하는 제한적 자원을 갖는 센서 노드의 기본적 특성과 무선 센서 네트워크의 대형화, 그리고 늘어가는 이기종 기기들로부터의 간섭은 시스템에 심각한 문제를 초래할 수 있다. 데이터를 무선 네트워크를 통해 송, 수신하는 도중 혼잡한 무선 네트워크 환경으로 인하여 비트 에러나 패킷 로스가 발생하게 되면 신뢰성을 보장하기 위하여 ACK 또는 NACK을 이용한 무선 데이터의 재전송이 이루어진다. 하지만 ACK과 NACK으로 인하여 추가적인 무선 네트워크 트래픽이 발생되게 된다. 본 논문에서는 혼잡한 무선 환경에서 신뢰성 보장을 위하여 frame을 block으로 나눈 FEC를 사용하는 방식이 재전송을 사용하는 ARQ 방식에 비하여 더욱 적은 에너지를 사용하고, 더욱 뛰어난 성능을 가짐을 보여준다. 이를 위해 TinyOS의 시뮬레이터인 TOSSIM을 이용하여 여러 가지 네트워크 환경 하에서 ARQ와 FEC block의 성능을 비교, 분석한다.

Serious problem can be caused by limited resource of sensor nodes due to expansion of Wireless Sensor Network and growth of interference from heterogeneous networks. While the nodes are transmitting and receiving wireless data packets via wireless network, if bit error or packet loss occurs due to the congested wireless network environment, the lost packets are retransmitted using ACK or NACK to guarantee reliability. In this paper, we show that to guarantee reliability, FEC with dividing a frame into blocks not only outperforms but also uses less energy than ARQ that uses retransmission. To achieve this, we compare performance of ARQ and FEC block with TOSSIM the simulator of TinyOS.

3

최근 의료 분야에 대한 관심이 높아짐에 따라 유전체 데이터를 관리 및 분석하는 기술에 대한 많은 연구가 수행되고 있다. 유전체 데이터 분석은 유전체 데이터의 매핑(mapping) 및 태깅(tagging)을 수행하는 전처리단계와 변이된 유전체 데이터를 생성하고 분석하는 후처리단계로 구성된다. 전처리 단계는 약 30억 개 이상의 염기 서열 조합에 대해 분석 작업을 수행하기 때문에 많은 시간이 소요된다. 그러나 입력된 데이터가 동일할 경우 동일한 결과 데이터가 생성되는 특징을 지닌다. 한편, 후처리단계에서는 각종 변이 알고리즘 종류 및 적용 순서 등에 의해, 매번 상이한 결과 데이터가 생성되는 특징을 지닌다. 이와 같은 특성을 고려하면, 효율적인 유전체 분석 데이터 공유 및 유전체 데이터 분석 과정, 즉, 유전체 데이터 유래의 검색을 지원해야한다. 따라서 본 논문에서는 유전체 데이터의 특성을 고려하여, 대용량 유전체 데이터를 위한 효율적인 데이터 관리자를 구현한다. 첫째, 원활한 데이터 공유를 위해 공유 권한 테이블을 설계한다. 둘째, 각 파이프라인의 결과 데이터 및 유사한 유전체 데이터 관리를 위해 유전체 데이터 유래 관리 기법를 설계한다. 셋째, 설계한 데이터 공유 및 유래 관리 기법을 기반으로 데이터 관리자의 주요 알고리즘을 설계한다. 마지막으로 설계된 알고리즘을 구현하여 성능평가를 수행한다.

Recently, many studies have been done on managing and analyzing genome data because researches of the medical field have a lot of interests. Genome data analysis process has consist of two main parts, One is pre-processing which does mapping and tagging to genome data and another is post-processing which does generating mutations of genome data and analyzing mutated data. The pre-processing jab maps and tags to the combinations of whole genome sequences which are the parts of three billions of sequences in a genome data, so that the job takes too much time. However, it generates same data results if the input data is same. The post-processing job makes mutated genome data which is effected by the order of used mutation algorithms, the kinds of mutation algorithms and the number of iterations for reprocessing jobs. In this paper, we design an efficient genome data manager by considering the characteristics of genome data analysis process. First, we design a data sharing table to share genome data efficiently. Secondly, we design a provenance index tree to handle the provenances of genome data processing. Thirdly, based on the designed methods, we design algorithms for managing genome data. At last, we implement our algorithm and show its performance.

4

본 논문에서는 DRAM 메모리 기반의 SSD 스토리지인 NGS 시스템 개발과 함께, 개발결과에 대해 IOPS 성능과 tpmC 성능 시험을 수행하였다. HDD 스토리지와 비교 결과, 기존의 HDD 스토리지 대비 IOPS 성능은 랜덤 읽기에서 90배, 랜덤 쓰기 성능에서 8.3배 성능 향상이 기대되며, tpmC 성능은 22배의 성능 향상과 138%의 에너지 절감 효과가 있음을 확인할 수 있었다.

In this paper we analyzed the performance of the NGS system(DRAM-SSD) based on DRAM memory. Compared with existing HDD storage system, we confirmed that NGS system is better than HDD in random read performance (90 times), random write performance (8.3 times) in case of block size 1KB, tpmC performance (22 times) and energy reduction effect (138%).

5

위치기반 서비스란 휴대폰과 같은 모바일 단말기 속에 위성 항법장치(GPS)와 연결되는 칩을 부착하여 위치추적 서비스, 공공안전 서비스, 위치기반 정보 서비스 등 위치와 관련된 각종 정보를 제공하는 서비스를 일컫는다. 그리고 클라우드 컴퓨팅이란 개인용 컴퓨터 또는 기업의 서버에 개별적으로 저장해 두었던 자료와 소프트웨어들을 클라우드 클러스터로 구축하여 필요할 때 PC나 휴대폰 같은 각종 단말기를 이용하여 원격 작업을 수행할 수 있는 환경을 의미한다. 본 논문에서는 구글의 연구로부터 시작된 클라우드 컴퓨팅 기술에 주목하고 클라우드 컴퓨팅 환경을 위한 대용량 이동 객체의 정보를 저장하고 질의하는 시스템에 대하여 연구하였다. 그리고 위치 기반 서비스를 위한 대용량 이동객체에 대하여 효율적인 질의를 수행할 수 있는 저장 구조를 제안하였다. 본 논문에서 제안한 방법을 적용한 시스템의 효율성을 증명하기 위해 저장 및 질의 성능을 다양한 측면에서 실험하고, 실험 결과를 다른 분산처리 시스템과의 비교하여 성능을 입증하였다.

The location-based service is referred to as the service for providing various types of information regarding such as the location-tracing service, the public-safety service and the location-based information service by attaching chips connected with the GPS to the mobile phone. In addition, cloud computing means the environment which makes it possible to carry out remote operations by establishing cloud clusters with the data and software which have been individually stored in personal computer or corporate servers and using devices such as personal computers and cellular phones whenever it is necessary. Throughout this paper, the cloud computing technology which originates from the research by Google the system has been focused on and the system for storing a large volume of information for moving object and making query for cloud computing environment has been studied. Besides, the storing structure for executing efficient query regarding the high-capacity mobile devices for the location-based service has been suggested. In order to prove the efficiency of the system with the application of the method suggested in this paper, the storage and qualitative functions have been experimented in various aspects and compared with other distributed processing system's performance.

6

신약개발, 기상예측, 공학 시뮬레이션 등 과학 및 공학 분야에서 주로 활용되던 슈퍼컴퓨팅은 고객 분석, 경제예측, 멀티미디어 등 활용범위가 극대화 되고 있으며, 최근 슈퍼컴퓨팅 수요 산업이 증대됨에 따라 대규모 컴퓨팅 자원의 충족을 위해 슈퍼컴퓨팅 시스템 개발의 필요성이 증가하고 있다. 슈퍼컴퓨팅 기술은 단일 기술이 아니라 프로세서, 메모리, 네트워크, 스토리지에 이르기까지의 첨단 하드웨어를 기반으로 최고의 성능을 내기 위한 운영체제와 계산 라이브러리, 그리고 그 응용 프로그램에 이르는 소프트웨어 기술의 총 집합체로써 각각의 세부 기술들은 슈퍼컴퓨팅의 실현에 필수불가결한 핵심 요소라 할 수 있다. 본 논문에서는 기존 슈퍼컴퓨터 기술 분석을 통해 향후 미래의 고성능 엑사스케일 컴퓨팅 시스템의 구조 및 이를 위한 효율적인 자원 관리 기술을 전망하여, 슈퍼컴퓨팅 기술개발 정책 및 연구방향을 제시한다.

There is a growing need about high-performance computing system in order to support large-scale computing resources. Hige-performance computing technology consists of hardware components which are processors, interconnect, memory, network, and storage system and software components which are operating systems and applications. These technologies critically affect the advance of computing areas. In this paper, we establish a road map for exascale high-performance computing system by analyzing core technology trend and issues.

7

패턴매칭 연산은 네트워크 보안, 바이오 인포매틱스와 같은 분야에서 광범위하게 사용되는 중요한 연산이다. 많은 패턴 매칭 알고리즘 들 중에서 Aho-Corasick (AC) 알고리즘이 위와 같은 분야에서 집중적으로 활용되고 있어, AC 알고리즘의 실행을 가속화하고 실시간 실행을 위한 성능 상의 요구사항을 만족시키기 위하여 효율적인 병렬화 기법을 개발하는 것이 필수적이다. 본 논문에서는 AC 알고리즘의 실행에 활용되는 입력 텍스트 데이터와 비교의 대상이 되는 2-차원 배열로 구성된 레퍼런스 데이터를 모두 GPU 상의 on-chip 메모리 (또는 캐시)에 적재하여 병렬 패턴 매칭을 실행하는 기법을 개발한다. 이러한 새로운 접근법의 개발에 있어 데이터를 on-chip의 shared memory에 적재할 때 필요한 메모리 접근들을 효율적으로 스케쥴링 함으로써 데이터 적재에 드는 오버헤드를 크게 감소시킨다. 따라서 새 접근법은 데이터 적재에 드는 메모리 대기시간을 크게 줄이고, 이에 따라 큰 폭의 성능 향상을 얻게 된다. NVidia 9500 GT GPU를 활용한 실험결과, 본 논문의 접근법을 활용한 병렬실행 결과 순차실행 결과(Intel Core2Duo 범용 마이크로프로세서를 활용한)와 비교하여15배까지 성능을 향상시킬 수 있었다.

Pattern matching is a common and important operation in many applications including network security, bioinformatics, etc. Among many pattern matching algorithms, Aho-Corasick (AC) algorithm is intensively used in these applications. In order to speed up and meet the real-time performance requirement for AC algorithm, developing an efficient parallelization technique is essential. In this paper, we develop a new parallelization approach to cache both the input text data and the reference data organized as a 2-dimensional table in the on-chip memories (or caches) on the Graphic Processing Unit (GPU). The new approach also schedules memory accesses carefully to minimize the overhead in loading data to the on-chip shared memory. The approach significantly cuts down the memory latency to load the data and leads to impressive performance improvement. Experimental results on NVidia GT9500 GPU shows up to 15x speedup compared with a serial version on 2.2Ghz Core2Duo Intel processor.

8

본 논문에서는 사진 구도의 자동 분류와 주 객체의 적정 위치에 대한 점수 측정 그리고 구도 최적화에 대하여 기술한다. 여기에서는 다양한 사진 구도 중에서 3등분할구도, 수직, 수평구도 그리고 중앙 집중형 구도 세 가지 구도에 대해서만 다룬다. 구도의 최적화를 위하여 첫 번째로 스카이라인이 있는 영상과, 접사, 그리고 망원사진에서의 객체를 검출한다. 스카이라인의 검출 및 주요객체의 검출을 위해서 우선 표준편차 필터를 사용하여 스카이라인을 검출하고, 스카이라인이 검출된 영상에서 스카이라인을 제거한 영상에서 외곽선 검출과 같은 간단한 영상처리 기법을 사용하여 주요객체를 검출한다. 또한 접사와 망원 사진에서는 촬영하고자 하는 피사체, 즉, 주요 객체는 매우 뚜렷한 외곽선을 갖는다는 점에서 착안하여 주요 객체가 검출된다. 검출된 주요 객체의 최적화된 위치를 찾기 위해, 먼저 사전에 정의된 구도로 분류하고, 미학적 분석에 기반한 점수 측정을 통하여 주요 객체의 위치를 평가한다. 실험을 통하여 제안된 방법이 미학적 아름다움과 어느 정도 일치하는 것을 보여준다.

In this paper, we will address techniques for recognition of photo composition, score measure and photo composition optimization. We deal with 3 categories of representative compositions such as rule-the-thirds composition, vertical and horizontal composition and centralized composition. For optimizing the composition, we extract the main object in photos containing the sky region, closed-up photo, and telephoto images. A skyline detection is carried out by using a standard deviation filter. The main object in this result is extracted by several image processing such as a edge detection. In the cases of a closed-up photo and a telephoto, a main object can be extracted easily based on its distinct outline occurred because of the characteristic feature based on a focal length. In order to optimize the position of main object, we categorize the composition into the pre-defined three kinds of compositions and measure the score based on aesthetic methods. Finally, experimental results shows that the proposed method is in consistency with aesthetic evaluation.

【게시판】

 
페이지 저장