Earticle

현재 위치 Home

Issues

한국차세대컴퓨팅학회 논문지 [THE JOURNAL OF KOREAN INSTITUTE OF NEXT GENERATION COMPUTING]

간행물 정보
  • 자료유형
    학술지
  • 발행기관
    한국차세대컴퓨팅학회 [Korean Institute of Next Generation Computing]
  • pISSN
    1975-681X
  • 간기
    격월간
  • 수록기간
    2005 ~ 2026
  • 등재여부
    KCI 등재
  • 주제분류
    공학 > 컴퓨터학
  • 십진분류
    KDC 566 DDC 004
Vol.16 No.3 (9건)
No
1

최근 온라인 게임 시장 규모가 급격히 성장하면서, 게임 내 재화를 획득하기 위한 부정행위가 빈번하게 발생하고 있 다. 대표적인 부정행위 중 하나인 게임 봇(game bot)은 게임 내 재화를 부정하게 수집하여, 게임 내 균형을 파괴하 고 콘텐츠를 빠르게 고갈시켜 게임 수명을 단축시키는 문제를 야기한다. 본 논문에서는 사용자 행위 로그를 입력으 로 하는 다층 퍼셉트론(Multi Layer Perceptron)을 적용하여 정상 사용자와 게임 봇을 분류하고, 각 행위가 분류 에 영향을 끼친 정도를 수치화하여 판단 근거를 추론하는 모델을 제안한다. 제안한 모델을 ‘AION’ 게임의 실제 로 그 데이터에 적용하여 10겹 교차 검증으로 테스트한 결과 약 98.4%의 정확도와 99.6%의 재현율을 보였다.

As the online game market has grown rapidly in recent years, cheating has frequently occurred to get items in the game. Game bots, which are one of the most representative cheating behaviors, collect items in the game unfairly, causing problems in the game by destroying the balance in the game and rapidly depleting the content to shorten the game life. In this paper, we propose a model that classifies normal users and game bots by applying a Multi-Layer Perceptron(MLP) with user action log as input, and infers the basis of judgment by quantifying the degree to which each action affects the classification. The proposed model was applied to the actual log data of the ‘AION’ game and tested with 10-fold cross-validation, showing an accuracy of about 98.4% and a recall of about 99.6%.

2

최근 급속도로 발전된 딥러닝 기술을 적용하여 가상현실 및 증강현실 응용에서 사용자 친화적 인터페이스를 제공하 기 위한 연구가 활발히 이루어지고 있다. 본 논문은 사용자의 손을 이용한 인터페이스를 제공하기 위하여 실시간 손 끝을 탐지하는 딥러닝 기반 손끝 탐지 방법을 제안한다. 본 방법은 기존 객체 탐지 네트워크에서 필요한 주석 전처 리 과정 없이 VGG-19 네트워크에 DenseNet의 연결 방식을 도입하여 총 파라미터 수와 소요 시간을 줄이고 Atrous Convolution과 Grad-CAM을 이용하여 손끝을 탐지한다. 본 방법을 다양한 환경에서 실험한 결과 기존 방법(SSD 네트워크)보다 평균 5% 높은 인식률로 34.4 ms의 실시간 처리가 가능함을 알 수 있었다. 본 연구 결과 로 사용자의 손끝을 이용하여 실시간 에어 라이팅을 하는 응용을 제작함으로써 사용자 인터페이스의 활용 가능성을 보였다.

Recently, research is being actively carried out to provide a user-friendly interface in virtual reality and augmented reality applications by applying rapidly developed deep learning technology. This paper proposes a deep learning-based fingertip detection method that detects real-time fingertips in order to provide the interface using the user’s hand. This method introduces the DenseNet Connectivity to the VGG-19 network without the required annotation preprocessing process in the existing object detection network, reducing the total number of parameters and the time required, and detecting the fingertips using the Atrous Convolution and the Grad-CAM. As a result of experimenting with this method in various environments, it was found that real-time processing of 34.4 ms is possible with an average recognition rate of 5% higher than the existing method (SSD network). As a result of this study, the application for real-time air-writing using the user's fingertips was developed, showing the usability of the user interface.

3

소규모로 널리 보급되고 있는 대부분의 가정용 태양광 발전 시스템은 간단한 단품의 조합만으로 구성되어 저비용 시 스템으로 공급되지만 발전 효율을 관리하고 유지 보수를 개선하기는 어렵다. 또한, 사용자에게 한정적인 데이터 제 공으로 태양광 발전시스템의 상태를 파악하고 문제가 발생할 경우 사용자가 대처하기 어려운 실정이다. 본 논문에서 는 가정용 태양광 발전시설과 같은 소규모 태양광 발전소의 발전 현황을 측정하고, 서버에 정보를 기록하며, 이상 발생시 소유자에게 경보를 보내는 시스템의 구축 방법을 제안 한다.제안하는 시스템은 인버터로부터 정보를 얻는 기 존의 발전량 모니터링 시스템과는 달리 태양광 모듈 단위의 발전 정보 계측, 전송과 저장을 특징으로 한다. 제안하 는 시스템은 태양광 모듈 상태 감지 보드, 게이트웨이, 데이터베이스, 서버, 모바일 APP 및 원격 모니터링 프로그 램으로 구성된다. 특히 안정성과 확장성의 증대를 위해 MQTT기반의 정보 전송시스템을 구현하며, 수집된 정보를 모니터링하고 사용자에게 이상발생에 대한 알람을 보낼 수 있도록 설계하여 발전소의 유지보수를 위한 플랫폼을 제 공하고자 한다. 실험을 통해 제안하는 시스템의 유효성을 확인하며, 이상 발생시 즉각 대응이 이루어질 수 있는 가 정용 태양광 발전 시스템의 유지관리 방법을 제안한다.

Most of the home PV(Photovoltaic) power generation systems, which are being widely distributed on a small scale, are supplied mainly on low-cost systems composed of simple single items, but it is difficult to manage power generation efficiency and improve maintenance. In addition, it is difficult to identify the state of the PV power generation system by providing limited data to the user and to cope with the user when a problem occurs. In this paper we propose a method for constructing a system that measures the power generation status, records information on a server, and sends an alert to the owner when an abnormality occurs in a small PV power plant, such as a home PV power facility. Unlike, in other studies, the power generation monitoring system that obtains information from the inverter, the proposed system is characterized by measuring, transmitting and storing the power generation information in the module unit. The proposed system consists of a PV module status detection board, gateway, database, server, mobile APP and remote monitoring program. In particular, the MQTT(Message Queuing Telemetry Transport)-based information transmission system is implemented to increase the stability and expansion, and it is designed to monitor the collected information and send an alarm to the user about the occurrence of an abnormality to provide a platform for power plant maintenance.

4

대화시스템에서 자연어 생성은 대화관리 단계에서 결정한 시스템 발화의 의미표현을 사람이 이해할 수 있는 자연어 로 생성하는 것이다. 기존의 자연어 생성 연구는 의미표현에 대하여 매우 제한된 종류의 발화만을 생성하거나 문법 적으로 불완전한 발화를 생성한다는 문제점이 있다. 그래서 본 논문에서는 문제점들을 동시에 처리하기 위하여 Long Short Term Memory 기반의 언어모델을 이용한 한국어 자연어 생성 모델을 제안한다. 특히 우리는 시스템 발화의 다양성과 문법적 정확성을 높이기 위하여 빔서치 디코딩을 적용한다. 실험은 어절, 형태소, 음절단위에 따라 개별적으로 진행하였으며, 생성한 문장들은 정량적, 정성적 평가를 모두 진행하였다. 그 결과 형태소 단위로 학습한 제안모델에 빔서치 디코딩을 적용한 방법은 가장 좋은 성능을 보였다. 실제로 해당 생성 문장은 정량평가 결과에서 BLEU 지표는 0.86, Slot Error Rate 지표는 0.03을 기록하였으며 정성평가 역시 문법적으로 정확하고 문맥적 으로 충분히 자연스러운 결과임을 확인하였다.

Natural language generation in the dialogue system is a task that transforms the semantic frame of the system utterance determined in the dialogue management phase into a natural language that can be understood by humans. Existing studies have still faced some obstacles in that only very limited types of utterances or grammatically incomplete ones are generated from the semantic frames. In order to address these issues simultaneously, we propose a Korean natural language generation model using a long short term memory based language model. In particular, we exploit the beam search decoding method to obtain system utterances with diverse structures and grammatical correctness. The experiments were conducted individually with respect to the word, morpheme, and syllable units, and the generated utterances were evaluated in both quantitative and qualitative ways. As a result, the morpheme-based model with the beam search decoding has achieved the most robust result of all. In fact, in the quantitative evaluation result of the generated sentence, the BLEU-4 score was 0.86 and the SER was 0.03, and the qualitative evaluation was also confirmed to be grammatically correct and contextually natural.

5

딥러닝 기반 방법이 의료 이미지 분할에서 우수한 성능을 달성했지만 이러한 방법은 여전히 몇 가지 단점이 있다. 첫째, U-Net과 같은 인코더 디코더 구조에서 건너뛰는 연결을 사용할 경우 중복되는 특징과 불필요한 저수준 특징 정보를 다층의 스케일로 전달될 수 있다. 둘째, 이전 방법은 장거리 종속성을 수집 할 수 없으므로 특징 맵을 적절하 게 재구성하지 못한다. 이러한 문제를 완화하기 위해 본 논문에서는 서로 다른 수준에서 전체 상관 관계를 적응적으 로 탐지하고 주의 메커니즘을 활용하는 구조를 제안한다. 이 접근 방법은 지역 특징을 다른 수준으로 통합하고 노이 즈 및 원치 않는 정보를 억제하여 필수적인 특징을 강조한다. 제안하는 구조의 평가를 위해 Kvasir-SEG와 세포핵 분할 등의 두 가지 데이터셋을 이용하여 평가를 한다. 실험 결과에서 제안하는 모델의 정확도가 향상되고 기존의 방 법보다 우수한 성능을 보인다.

Even though deep learning(DL) based methods have been achieving superior performance in medical image segmentation, such methods still have some downsides. First, the use of skipconnections in encoder-decoder architecture like U-Net allows transferring redundant and superfluous low-level features information at multiple scales. Second, prior methods cannot capture long-range dependencies and hence fail to reconstruct the feature maps adeptly. To subdue these problems, we propose an architecture that adaptively captures global correlations from different scales and utilizes the attention mechanism. This approach integrates the local-features at different scales and underlines the essential features by suppressing noises and unwanted information. We evaluate the proposed architecture in the context of medical image segmentation on two different datasets: Kvasir-SEG and nuclei segmentation. Experimental results show that the proposed model yields better accuracy and outperforms previous methods.

6

뇌 지기공명영상(MRI)의 분할은 원치 않는 부분을 제거하고 원하는 객체를 찾기 위해 수행된다. 알츠하이머, 다발 성 경화증, 간질 등과 같은 많은 신경 장애는 뇌 영상 조직의 분할 기법을 이용하여 진단할 수 있다. 특히, MRI으로 부터 회백질(GM), 백질(WM), 뇌척수액(CSF)과 같은 심부 뇌 구조의 자동 분할은 뇌 신경 장애의 진단 확률을 높이는데 중요한 역할을 한다. 뇌 MRI 영상 분할의 연구는 계산 복잡도를 감소시키면서 분할 정확도를 향상시키는 데 중점을 두고 진행되어 왔다. 최근 몇 년 동안 CNN은 영상 분할 및 분류에서 큰 정확도 향상의 성능을 보여주었 고, 의료 영상 분석에 광범위하게 적용되고 있다. 본 논문에서 뇌 MR 영상 분할를 위해 Segnet, U-net, U-Segnet 및 M-net과 같이 널리 사용되는 4 가지 CNN 모델에 대한 비교 실험 및 성능 분석을 실행하였다. 성능 은 Dice 계수(DI) 및 Jaccard 지수(JI)를 기준으로 측정되었고, 실험 결과 주요 CNN 모델 중 M-net은 Dice 계 수 93 % 및 JI 86 %로 가장 정확도가 높은 분할 성능을 보여주었다.

The segmentation of brain MR images is performed to eliminate unwanted details and to locate relevant objects from the processed images. Many neuro-disorders such as Alzheimer's, multiple sclerosis, epilepsy, etc. can be diagnosed with the aid of brain tissue segmentation. In particular, automated segmentation of deep brain structures such as gray matter(GM), white matter(WM), cerebrospinal fluid(CSF) from magnetic resonance images play a vital role in increasing the rate for the diagnosis of brain-neural disorders. Most of the research on semantic segmentation is focused on improving the accuracy with computationally efficient solutions. In recent years, convolutional networks have shown breakthrough performance in image segmentation and classification. Convolution Neural Networks(CNN), with their ability to self-learn features from the given data, are being applied extensively for medical images analysis. In this paper, we present a comparative study on four popularly used CNN models such as Segnet, U-net, U-Segnet, and M-net for MRI brain tissue segmentation and summarize their observed experimental analysis. The performances are measured based on the Dice coefficient and Jaccard index. Experimental results show that M-net achieves better segmentation accuracy with Dice co-efficient 93% and JI 86%.

7

클라우드 컴퓨팅은 최근 대중화되었으나, 여전히 클라우드 도입 및 관리를 어렵게 하는 과제들이 남아있고 그 중 하 나는 클라우드 마이그레이션 문제이다. 현재 클라우드 벤더에서 제공하는 마이그레이션 서비스를 이용하거나 직접 머신 이미지를 추출하여 수동으로 마이그레이션하는 방법이 주로 사용되고 있으나, 이러한 방법들은 각각 벤더에 의 존적이거나 느리고 유연성이 떨어진다는 문제점을 가지고 있다. 이에 본 논문에서는 IaC(Infrastructure-as- Code)의 개념을 차용한 클라우드 마이그레이션 자동화 방법을 제시한다. IaC를 지원하는 도구들을 이용하여 이미 존재하는 인프라의 정보를 수집하고, 수집한 정보를 사용하여 기존 인프라와 동일하게 동작하는 새로운 인프라를 클 라우드에 구축하는 방법이다. 본 논문에서는 이러한 마이그레이션 방법의 기반이 되는 마이그레이션 모델 및 프로세 스를 제시하며, 제시한 방법을 통해 실제로 마이그레이션이 이루어지는 사례를 보인다. 또한 기존의 마이그레이션 방법과의 마이그레이션 소요 시간 비교 실험을 통해 제시하는 방법의 효용성을 보인다. 제시하는 방법은 느리고 유 연성이 떨어지는 기존 클라우드 마이그레이션 방법의 단점을 해소하고 DevOps 환경과 결합하여 보다 효율적인 클 라우드 인프라 구축 및 관리를 가능케할 것으로 기대된다.

Although cloud computing has recently become quite popular, but there are still challenges that complicates cloud adoption and management, one of which is the cloud migration problem. The current approaches for migration are either dependent on vendors or are slow and inflexible. We propose a method of cloud migration automation using the infrastructure-as-code(IaC) concept. IaC-based tools are used to collect information on the existing infrastructure and build new infrastructure using this collected information. In this paper, we present the migration model and the processes that are the foundations of this migration method, and show how migration proceeds in the proposed method. We also demonstrate the effectiveness of the migration, through time-comparison tests with the existing migration method. The proposed method is expected to solve the disadvantages of the existing slow and inflexible cloud migration methods. Combining the proposed method with the DevOps environment can facilitate more effective cloud infrastructure construction and management.

8

영상 세션화는 기본적으로 이미지를 의미있는 구조로 나누는 것이다. 항상 특정 요구에 따라 이미지를 완전히 분할 한다. 하지만 결과가 원하지 않는 오버세션화가 이루어질 수 있다. 따라서 본 논문에서는 오버세션화를 줄이기 위해 가우시안 혼합 모델(GMM) 기반의 변형된 워터쉐드 알고리즘을 제안한다. 거리 변환 영상은 가우시안 혼합 모델에 의해 처리된다. 그리고 기대 최대화(EM) 알고리즘은 가우시안 혼합모델 데이터에 맞추는 데 사용된다. 이들 평균 의 평균을 최적의 임계값으로 선택하고 획득된 임계값에 기초하여 이진 영상으로 변환한다. 이렇게 얻은 이진 영상 은 적절한 구조 요소의 적용하여 침식화한다. 침식된 영상에서 수행된 워터쉐드 분할은 효과적인 분할 결과를 제공 한다. 제안된 방법이 사용될 때 옥수수, 쌀 및 밀과 같은 다른 커널이 효과적으로 분할된다. 실험 목적으로 38 개의 옥수수 커널, 95 개의 쌀 커널 및 32 개의 밀 커널을 사용한다. 분할 정확도는 옥수수, 쌀 및 밀에 대해 각각 94.7 %, 96.8 % 및 90.6 % 이다.

Image segmentation is basically the division of an image into meaningful structures. It always produces complete division of the image as the specific demand. However, it is prone to over-segmentation which makes the result unfavorable. Therefore, this paper proposes modified watershed algorithm based on Gaussian mixture model(GMM) to reduce the over-segmentation. Distance transformed image is processed by GMM. And expectation maximization(EM) algorithm is used to fit GMM to data. Average of these means is chosen as optimal threshold and the image is converted into binary image based on the obtained threshold value. Binary image thus obtained is eroded with the help of proper structuring element. Watershed segmentation thus carried out on the eroded image gives the effective segmentation results. Different kernels such as corn, rice, and wheat are effectively segmented when the proposed methodology is used. 38 corn kernels, 95 rice kernels, and 32 wheat kernels are used for the experimental purpose. The accuracy of segmentation is as high as 94.7%, 96.8%, and 90.6% for corn, rice, and wheat respectively.

게시판

 
페이지 저장