Earticle

현재 위치 Home

Issues

한국차세대컴퓨팅학회 논문지 [THE JOURNAL OF KOREAN INSTITUTE OF NEXT GENERATION COMPUTING]

간행물 정보
  • 자료유형
    학술지
  • 발행기관
    한국차세대컴퓨팅학회 [Korean Institute of Next Generation Computing]
  • pISSN
    1975-681X
  • 간기
    격월간
  • 수록기간
    2005 ~ 2026
  • 등재여부
    KCI 등재
  • 주제분류
    공학 > 컴퓨터학
  • 십진분류
    KDC 566 DDC 004
Vol.15 No.2 (8건)
No
1

신경 회로망을 구현하기 위해 다양한 시도들이 이루어지고 있으며, 하드웨어적인 개선을 위해 전용 칩 개발이 이루 어지고 있다. 이러한 신경 회로망을 웨어러블 디바이스에 적용하기 위해서는 소형화와 저전력 동작이 필수적이다. 이러한 관점에서 적합한 구현 방법은 FPGA (field programmable gate array)를 사용한 디지털 회로 설계이다. 이 시스템을 구현하기 위해서는 성능 향상을 위해 신경 회로망의 많은 부분을 차지하는 학습 알고리즘을 FPGA 내 에 구현하여야 한다. 본 논문에서는 FPGA를 이용하여 다양한 학습 알고리즘 중 역전파 알고리즘을 구현하였으며, 구현 된 신경 회로망은 OR 게이트 연산을 통해 검증되었다. 또한 이러한 신경 회로망을 활용하여 다양한 사용자의 생체 신호 측정 결과를 분석할 수 있음을 확인하였다.

Neural networks can be implemented in variety of ways, and specialized chips is being developed for hardware improvement. In order to apply such neural networks to wearable devices, the compactness and the low power operation are essential. In this point of view, a suitable implementation method is a digital circuit design using field programmable gate array (FPGA). To implement this system, the learning algorithm which takes up a large part in neural networks must be implemented within FPGA for better performance. In this paper, a back propagation algorithm among various learning algorithms is implemented using FPGA, and this neural network is verified by OR gate operation. In addition, it is confirmed that this neural network can be used to analyze various users' bio signal measurement results by learning algorithm.

2

알츠하이머 병 (Alzheimer's disease, AD) 에서 해마는 신경 세포 및 신경 섬유 얽힘 스레드 침착으로 인해 영향 을 받는 첫 번째 구조물 중 하나이며 결국 신경 세포의 손실을 초래합니다. 또한 최근에 많은 자기 공명 영상 연구에 서 AD 환자는 건강한 피검자에 비해 해마의 체적이 작다는 의견을 제시했다. 해마 자기 공명 영상 체적은 AD를 위한 잠재적인 바이오 마커이지만 작은 구조로 인해 수동 분할 및 낮은 시각화의 한계가 에 의해 어려움이 있다. 이 러한 문제를 해결하기 위해 대부분의 이미지 분석가는 뇌 구조의 자동 세분화를 위해 Freesurfer와 FSL에 익숙했 습니다. 본 연구에서는 다른 그룹의 AD 환자의 조기 진단을 위해 Freesurfer (v.6.0) 자동화 도구 상자를 사용하여 해마 영역을 추출하는 방법을 이용한다. 38 명의 환자가 AD에 속하며, 46 명의 환자가 MCI에 속한다 (안정-MCI, 18 개월 후에 AD로 전환되지 않음) 및 36 명의 환자가 MCIc에 속한다 (전환-MCI, 18 개월 이내에 AD로 전환), 나머지 38 명의 노인은 정상 대상 (NC)에 속하며 이러한 모든 환자들의 정보는 알츠하이머병 Neuroimaging Initiative database (ADNI)에서 다운로드 되었습니다. AD, MCIs, MCIc 및 노인 대조군 (NC) 환자를 구별하 기 위해 우리는 구입한 해마 체적을 사용했습니다. 여기서 차원적 감소를 위해 우리는 다양한 학습 기반의 ISOMAP 기법을 사용했다. 이 기법은 많은 기능들 중 중요한 특징만을 선택하고 나중에 랜덤 포레스트와 softmax 분류기를 사용하여 이진 분류 문제들을 분류했다.

In Alzheimer’s disease (AD), the hippocampus is among the first structures, which is affected, due to the neuropil and neurofibrillary tangle thread deposition, which eventually results in a neuronal loss. Moreover, recently a large number of magnetic resonance imagining studies have stated that AD patients has get smaller hippocampus volume as compared to healthy subjects. Hippocampal magnetic resonance imaging volumetric is a potential biomarker for an AD but is hindered by the limitation of manual segmentation and low visualization because of its small structure. To solve that problems, most image analyst used to Freesurfer and FSL for automatic segmentation of brain structures. In this paper, we apply to extract hippocampus region using Freesurfer (v.6.0) automated toolbox for early diagnosis of AD subjects with different groups. a total 158 baseline subjects were used for the experiment, from which 38 patients belong to AD, 46 patients belong to MCIs (stable-MCI, not converted to AD after 18th month of periods) and 36 patients belong to MCIc (converted-MCI, converted to AD within 18th month of periods), and remaining 38 patients belong to elderly normal subjects (NC), and all these subjects were downloaded from Alzheimer’s disease Neuroimaging Initiative database (ADNI). We used the gained hippocampal volumes to discriminate between AD, MCIs, MCIc, and elderly controls (NC) patients. Here, for dimensionality reduction purpose we have used manifold learning based ‘isometric feature mapping’ ISOMAP technique, which only selects the important feature from a bunch of features and later random forest and softmax classifier were used to classify the binary classification problems.

3

ITS 기술 중 하나인 VANET(Vehicular Ad-hoc NETwork)은 무선 통신 기술로 교통정보를 제공하여 운전자가 안전운전을 할 수 있도록 한다. 특히, 추가적은 교통사고를 예방할 수 있도록 운전자에게 Emergency 메시지를 전 달하는 것은 중요하다. Emergency 메시지는 broadcast 라우팅 기법을 이용하여 모든 운전자에게 전달되는데 이 것은 broadcast storm 문제를 야기할 수 있다. Broadcast storm 문제를 해결하기 위해 확률기반, 이웃정보기반, 지역기반, clustering 알고리즘 등 다양한 연구가 진행되고 있지만 아직 미흡하다. 따라서 본 논문에서는 Clustering 기법을 이용하여 Emergency 메시지를 전달하는 방안을 제안한다. 모든 vehicle을 Cluster 단위로 구분하고, 각 Cluster는 Cluster Header, Gateway Member, Cluster Member로 분류한다. 제안방안의 효율 성을 검증하기 위해 vehicle 수에 따라 생성되는 packet의 총량을 비교분석하였다. 그 결과, 제안방안의 packet 총 생성량은 P-persistence보다 약 38%, CBE-B보다 약 22% 감소하는 것을 보였다.

VANET (Vehicular Ad-hoc NETwork) is one of the ITS technologies that provides traffic information by wireless communication technology, enabling the driver to drive safely. In particular, it is important to transmit the Emergency message for the driver to prevent additional traffic accidents. The emergency message is transmitted to all the drivers using the broadcast routing technique, which can cause broadcast storm problems. In order to solve the broadcast storm problem, various studies such as probability based, neighbor knowledge based, area based, and clustering algorithm have been performed, however they are still insufficient. Thus, in this paper, we propose an other method to transmit emergency message using clustering method. All vehicles are classified into cluster units, and each cluster is composed of Cluster Header, Gateway Member, and Cluster Member. To prove effectiveness of the proposed scheme, we perform test to compare and analyze the total amount of packets generated according to the number of vehicles. As a result, the total packet generation amount of the proposed scheme decreased by about 38.41% compared to the P-persistence and about 27.47% from the CBE-B.

4

컴퓨팅 성능을 향상시키기 위해 다양한 구조적 설계 기법들이 제안되고 있는데 그중에서도 CPU-GPU 융합형 이종 멀티코어 프로세서가 많은 관심을 받고 있다. CPU-GPU 융합형 이종 멀티코어 프로세서는 단일 칩에 CPU와 GPU를 집적하기 때문에 일반적으로 CPU와 GPU가 Last Level Cache(LLC)를 공유하게 된다. LLC 공유는 CPU와 GPU 코어 사이에 심각한 캐쉬 경합이 발생하는 경우 각각의 코어 활용도가 저하되는 문제를 가지고 있다. 본 논문에서는 CPU와 GPU 사이의 캐쉬 경합 문제를 해결하기 위해 단일 LLC를 CPU와 GPU 각각의 공간으로 분할하고, 분할된 공간의 크기 변화가 전체 시스템 성능에 미치는 영향을 분석하고자 한다. 모의실험 결과에 따르 면, CPU는 사용하는 LLC 크기가 커질수록 성능이 최대 21%까지 향상되지만 GPU는 사용하는 LLC 크기가 커져 도 큰 성능변화를 보이지 않는다. 즉, GPU는 LLC 크기가 감소하더라도 CPU에 비하여 성능이 적게 하락함을 알 수 있다. GPU에서의 LLC 크기 감소에 의한 성능하락이 CPU에서의 LLC 크기 증가에 따른 성능향상보다 훨씬 작기 때문에 실험결과를 기반으로 각각의 코어에 LLC를 분할하여 할당한다면 전체적인 이종 멀티코어 프로세서의 성능을 향상시킬 수 있을 것으로 기대된다. 또한, 이러한 분석을 통해 향후 각 코어의 성능을 최대한 높일 수 있는 메모리 관리기법을 개발한다면 이종 멀티코어 프로세서의 성능을 크게 향상시킬 수 있을 것이다.

Recently, CPU-GPU integrated heterogeneous multicore processors have been widely used for improving the performance of computing systems. Heterogeneous multicore processors integrate CPUs and GPUs on a single chip where CPUs and GPUs share the LLC(Last Level Cache). This causes a serious cache contention problem inside the processor, resulting in significant performance degradation. In this paper, we propose the partitioned LLC architecture to solve the cache contention problem in heterogeneous multicore processors. We analyze the performance impact varying the LLC size of CPUs and GPUs, respectively. According to our simulation results, the bigger the LLC size of the CPU, the CPU performance improves by up to 21%. However, the GPU shows negligible performance difference when the assigned LLC size increases. In other words, the GPU is less likely to lose the performance when the LLC size decreases. Because the performance degradation due to the LLC size reduction in GPU is much smaller than the performance improvement due to the increase of the LLC size of the CPU, the overall performance of heterogeneous multicore processors is expected to be improved by applying partitioned LLC to CPUs and GPUs. In addition, if we develop a memory management technique that can maximize the performance of each core in the future, we can greatly improve the performance of heterogeneous multicore processors.

5

자연어 처리를 이용한 문서 분류 분야에서도 전통적인 방법에서 벗어나 단어 임베딩을 활용한 합성곱 신경망과 순환 신경망 등 심층 신경망을 이용한 다양한 연구가 진행되고 있다. 본 논문에서는 Word2Vec과 두 개의 계층으로 구성 된 양방향 장단기 기억 네트워크를 이용한 특허 문서의 IPC(International Patents Classification) 자동 분류 모델을 제안한다. IPC는 세계지식재산권기구에서 제정한 국제적으로 통일된 특허 분류 기준이며, 각 국가의 공인된 기관에서 수작업으로 분류하고 있다. IPC 자동 분류를 위하여 입력 시퀀스에 Word2Vec을 이용한 단어 임베딩가 중치를 사용한다. 그리고 가중치가 부여된 시퀀스를 두 개의 계층을 갖는 깊은 구조의 양방향 장단기 기억 네트워크 신경망에 입력하여 IPC를 분류한다. 실험 결과 특허 문서의 분류 정확도가 합성곱 신경망 보다는 약 7% 향상되었 으며, 순환 신경망을 단일로 이용하는 것 보다는 약 5% 향상된 것을 확인할 수 있었다. 또한 전통적인 방법인 나이 브 베이시안, 로지스틱 분류 및 서포트 벡터 머신보다는 5~12% 이상 우수한 성능을 나타내었다.

There are various studies using Deep Neural Network such as CNN(Convolutional Neural Network) and RNN(Recurrent Neural Network) that utilize word embedding in document classification using natural language processing out of traditional methods. In this paper, we propose the IPC(International Patents Classification) automatic classification model of patent documents using two layers BLSTM (Bidirectional Long Short Term memory) network. The IPC is an internationally uniform standard for patent classification established by the World Intellectual Property Organization and is categorized by hand in authorized agencies in each country. For the IPC automatic classification, we use word embedding weight with Word2Vec in the input sequences. And they are classified by entering a weighted sequences into a deep neural network with two layers BLSTM. The experimental results showed that the accuracy of classification is improved by about 7% than that of CNN, and about 5% than that of single layer LSTM that is a field of RNN. Also it showed more than 5~12% higher performance than traditional methods such as Naive Bayes, Logistic and Support Vector Machine classification.

6

최근 들어 많이 활용되고 있는 가상화 기술 중 컨테이너 가상화 기술인 도커는 경량화 된 서비스 운영환경을 제공함 으로 다양한 편의성을 제공하고 있다. 하지만, 도커를 통해 공유되는 이미지들은 누구나 쉽게 배포할 수 있기 때문 에, 출처를 정확하게 알 수 없는 경우가 많아 여러 가지 보안 취약점을 가지고 있다. 하지만, 이러한 보안 취약점을 확인하기 위해서는 도커 이미지들을 컨테이너화 하여 실행해 보고, 메모리에 로드가 된 후에야 분석이 가능하기 때 문에 악의적인 코드가 있을 경우 큰 문제를 야기할 수 있다. 이에 본 논문에서는 도커 허브나 기타 repository에서 받은 도커 이미지들의 보안 취약성을 실행전에 사전에 확인하기 위하여 도커의 이미지 파일 시스템을 분석하여 보 고, 분석된 결과를 바탕으로 도커 이미지를 로드하지 않은 상태에서 보안취약점을 분석해 보고자한다.

Docker is a virtualization technology that is used by the greatest number of people. The Docker provides a variety of conveniences by providing a lightened service operating environment. However, images that are shared with the docker can be easily distributed by anyone. Because of this, many sources are not known accurately and have various security vulnerabilities. However, in order to identify these vulnerabilities, container images of the sinker should be executed. Malicious code can cause major problems because it can be analyzed only after it is loaded into memory. In this paper, we analyze the image file system of the Docker to check the security weakness of the Docker images received from the Docker Hub or other repository before execution. Based on the analyzed results, we want to analyze security vulnerabilities without loading the image of the docker.

7

근래 지속적으로 성장 중인 클라우드 컴퓨팅환경은 물리노드, 가상화 기술을 거쳐 컨테이너 기술을 기반으로 구성되 고 있다. 컨테이너는 기존 가상화 기술에 비해 생성시간 간소화, 배포용이 등의 장점을 가지고 있으며 그 중 컨테이 너 배포, 자동배치 및 복제, 부하관리를 담당하는 컨테이너 오케스트레이션 기술이 주목받고 있다. 하지만 오케스트 레이션에서 비효율적인 자원관리를 통해 가용자원의 낭비가 발생하고 있다. 본 논문에서는 컨테이너 기존 오케스트 레이션 기법들의 구조 및 자원관리 방법을 살펴보고 보다 효율적인 자원관리를 위해 오케스트레이션 방법을 개선하 는 방안을 제안한다.

Cloud computing environments that have been growing continuously in recent years are composed of container technologies through physical nodes and virtualization technologies. Containers have advantages over traditional virtualization technologies such as simplified creation time and deployment use, and container orchestration technologies responsible for container distribution, automatic placement and replication, and load management are drawing attention. However, through inefficient resource management in orchestration, there is a waste of available resources. In this paper, we examine the structure and resource management methods of container existing orchestration techniques and propose to improve the orchestration methods for more efficient resource management.

8

최근 기술의 발전으로 인하여 서로 다른 영역에서 대규모의 데이터를 생성할 수 있게 되었고 이로 인하여 빅데이터 를 효율적으로 처리하고 분석할 수 있는 대규모 데이터 센터의 필요성이 대두되었다. 데이터 양이 증가함에 따라 작 업 스케줄링과 자원 관리는 매우 중요한 요소이다. 본 논문에서는 데이터 센터의 성능을 향상하기 위한 목적으로 자 원 관리 및 업무 스케줄링 매커니즘을 개선하는 새로운 인공지능 기반 프레임워크를 제안한다. 우리의 논문에서는 기계 학습을 사용하여 리소스 관리를 위한 특정기간 동안의 수요 리소스 활용도를 예측하고, 작업 스케줄링 개선을 위하여 향상된 개미 군체(ant colony) 알고리즘을 사용한다. 프레임워크 시뮬레이션을 통해 미래의 수요를 예측하 여 실행 중인 노드의 수를 10% 줄이고 전통적인 리소스 관리와 작업 스케줄링 방법보다 작업량이 15% 향상하는 결과를 확인할 수 있었다. 본 결과를 기초로 하여 우리는 인공지능과 기계학습을 사용한 효과적인 자원할당과 작업 스케줄링이 전반적인 성능이나 데이터센터를 개선할 수 있음을 알 수 있다.

Recent technological advancement has enabled the creation of large scale data (big data) in different domains which have raised the need for large data centers to process and analyze that big data in an efficient fashion. The incremental amount of data has made job scheduling and resource management an essential and challenging component of modern-day data centers. Therefore, in this paper, we have proposed a novel artificial intelligence based framework to enhance the data center performance by improving resource management and job scheduling mechanisms. We have used machine learning to predict resource utilization based on user demand over a particular time span for resource management and improved ant colony algorithm to job scheduling. Results generated from framework simulation demonstrates that predicting future demands aids prediction of future resource utilization and enables efficient job scheduling that reduce the number of running nodes by 10% and increase throughput by 15% from traditional resource management and job scheduling methods. Based on our simulation results be to argue that by using artificial intelligence and machine learning we can improve overall performance or modern-day data centers by efficient resource allocation and job scheduling.

 
페이지 저장