2025 (167)
2024 (163)
2023 (156)
2022 (172)
2021 (185)
최근 굴착 현장에서 발생될 수 있는 사고를 예방하기 위해 노면의 상태를 감지하고 측정할 수 있는 모니터링 연구가 진행되고 있다. 대부분의 연구들은 도로의 상태나 정량적 지표를 확인하는데 중점을 두었거나 2D/3D 스캐너를 이용한 모니터링 연구는 정밀성을 높이기위해 고가의 스캐너 사용으로 비용적인 문제가 따른다. 본 논문에서는 저가 카메라와 2D 선레이저를 결합한 2D 스캐너를 구현하였다. 제안 기법은 고가의 2D 스캐너와 함께 취득한 데이터셋을 인공신경망 기반 학습하여 노면 스캔이 가능하다.
본 논문은 고혈압 관리에 참고 지표로 활용가능하도록 혈압의 수치를 예측하여 제공하는 인공지능 알 고리즘에 대한 연구를 논한다. 고혈압 환자의 신체정보 데이터를 학습한 Multi-Layer Perceptron 알 고리즘과 Linear Regression 알고리즘의 성능 테스트를 진행하여 혈압 예측 결과를 비교분석하였다. 분석 결과, 다층 퍼셉트론 모델이 다중 선형 회귀 모델에 비해 높은 예측 정확도를 보였다
전이 학습을 이용한 얼굴 감정 인식 비전 기반 딥러닝 알고리즘 비교 연구
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.359-362
In this research, we have explored state-of-the-art deep learning algorithms for face emotion recognition. In this regard, we utilize a transfer learning technique for recognizing seven classes of emotions using image classifiers such as MobileNetv2, GoogleNet, ResNet101, VGGNet19. In addition, we also compared our results with a specially designed deep learning model for face emotion recognition such as “Deep Emotion”. We have utilized the dataset FER2013 exploited by many researchers. We have analyzed the accuracy, time of training, complexity in terms of layers, and other parameters. After training on FER2013, we have deployed each model on a Korean dataset obtained from Korean dramas videos containing images of celebrities. Our ultimate goal was to label all unknown Korean dataset after training on FER2013. We have presented three different programs, i.e. (i) automatic labeling, (ii) transfer learning-based models for unknown images, (iii) deep-emotion model for face emotion recognition. We have presented a detailed analysis of all models and our corresponding programs.
가상시뮬레이터 CARLA 이용한 AUTOWARE 연동 및 모델 예측 제어
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.363-366
In order to overcome the limitations on human accidents and reduce experimental costs during autonomous driving, studies using virtual simulator is conducted. In addition, by using open source-based frameworks and middleware, we develop a module that can be applied immediately to a real vehicle using a model developed for autonomous driving that has been studied in a virtual environment. In this paper, we use autonomous driving environment using a game engine-based CARLA simulator, and propose a model predictive control module by interlocking open-source ROS (Robot Operating System) and Autoware with the simulator. In addition, ROS manages vehicle information and sensor data and transmits them to the Autoware. In order to control autonomous driving, the control end part is implemented using MPC (Model Predictive Control) among Autoware APIs, which provides necessary functions such as 3D map generation and NDT matching algorithm for autonomous driving, location identification, object recognition, and vehicle control.
Jetson 임베디드 보드에서 도커 컨테이너를 사용한 연합 학습 기반 이미지 분류
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.367-370
In this research, we have studied a federated learning-based image classification algorithm. In this regard, we have used Resnet18 classifier as a backbone deep learning algorithm for image classification. The training process of this algorithm involved federated learning, such as training is performed at multiple clients (Jetson Nano and TX2) and is averaged at the server (Jetson Xavier). We have exploited the Nvidia Docker container image to deploy our algorithms for the training process. For our experiments, we have used only two clients and one server during the training process of the Resnet18 image classifier. The extension of the CIFAR10 (50K to 500K samples) dataset has been used for training, known as EC10, which contained 1000 subsets for IID client distribution. We have validated the accuracy for both using the federated learning process and traditional training at several strategies and have presented the results correspondingly.
GAN 기반 이상행동 검지 시스템에서 SSIM 손실 함수 적용에 따른 성능 비교
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.371-374
이상 행동 탐지는 비정상적인 행동을 취하는 물체를 추적하고 관찰하여 모니터링 또는 감독이 필요 한 분야에서 사용된다. 사람의 지속적인 개입없이 인공지능 알고리즘을 적용하여 자동화된 탐지 시스 템을 구현하기 위해서 광학 흐름 기법을 활용한 시공간적 특이도를 관찰하는 방법이 활용되고 있으며, 정해진 표현 범위가 없는 수많은 이상 행동을 식별하기에는 비지도학습 방법이 적합하기 때문에, 최근 생성적 적대 신경망을 통해 카메라에서 촬영된 동영상 프레임의 시공간적 특징을 분석하는 딥러닝 네 트워크에 대한 연구가 진행되고 있다. 이 중 영상 변환 네트워크는 복원 오류를 줄이기 위해 GAN 손 실과 L1 손실 함수를 최소화하도록 최적화되어 있다. 본 연구에서는 네트워크의 목적 함수를 조정하 여 모델의 정확도를 높이기 위한 실험을 수행하였다. 특히 구조적 유사도를 비교하여 손실을 최소화하 는 SSIM 손실 함수는 두 영상의 유사도를 측정하는 과정에서 많이 활용되고 있으며, 이 함수는 알고 리즘을 통해 계산된 광학 흐름 영상과 생성적 적대 신경망 모델의 생성자가 만들어낸 가짜 광학 흐름 영상의 차이를 계산하는 데 적합하므로 이를 추가하여 학습 후 프레임 수준 성능에서 더 높은 정확도 를 보임을 확인하였다. 그리고 네트워크의 목적 함수를 정의하는 과정에서 SSIM 손실 함수가 모델 훈련의 최적화에 어떻게 기여하는지 분석했다.
복원 모델 기반 이상 탐지를 위한 효율적인 데이터 전처리 방법
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.375-377
최근 몇 년간 딥 오토 인코더 또는 UNet과 같은 딥러닝 모델이 이상 상황 탐지를 위한 재구성 기반 모델로 사용되었다. 이러한 재구성 기반 모델은 재구성 손실을 기반으로 비정상 지수를 측정한다. 그러나 재구성 기반 모델의 탐지 성능은 입력 데이터의 형식에 따라 크게 좌우되므로 데이터 전처리 과정은 재구성 기반 이상 탐지 모델의 탐지 성능을 향상하는 데 매우 중요한 요소이다. 따라서 본 연구에서는 이상 탐지를 위한 새로운 데이터 처리 방법을 제안한다. 우리가 제안한 데이터 전처리 과정에서는 우선 현재 프레임과 이전 프레임 간의 차이를 계산하여 새로운 이미지를 생성한다. 그런 다음 새로 구축된 이미지를 UNet 모델에 대한 입력 이미지로 사용한다. 그런 다음 원래 이미지와 UNet 모델을 통해 재구성된 이미지 간의 차이를 계산하여 이상 영역 위치를 탐지한다. 실험에서 우리가 제안한 데이터 전처리 방법과 기존의 다른 데이터 전처리 기법의 탐지 성능을 비교하였다. 실험 결과 우리가 제안한 데이터 처리 방법을 사용한 UNet 기반 이상 탐지 모델이 다른 데이터 전처리 방법을 사용한 모델보다 이상 영역을 더 잘 탐지할 수 있음을 보여준다.
In recent years, UNet architecture has shown to be a standard network for medical image segmentation. However, it suffers from some severe limitations. It loses localization ability for low-level details followed by the inability of long-range dependencies. Motivated by this, we explore transformer-based architectures that exploit global context by modeling long-range spatial dependencies, which are essential for accurate polyp segmentation. In this paper, we propose an attention-based transformer encoded UNet model. This hybrid model inherits both characteristics of CNN block as well as attention block. We perform various experiments in existing architectures like UNet, ResUNet, ResUNet-Mod and our proposed method. The proposed method achieved a 0.645 mIOU score took an unassailable lead over prior methods.
Blockchain technology changed the IoT data computing paradigm significantly with its secure communication protocol. It offers a considerable advantages compared to traditional IoT data computing systems with a simple and secure P2P network. Meanwhile, the integration process faces considerable challenges related to big data management. One of the main problems, broadcasting the big data through the blockchain nodes would cost significant space usage for all nodes. In this paper, we present a new method named HashBlock on sharing the hash of big data using blockchain network. Hash-based blockchain network guarantees the constant space usage for all types and sizes of data for each record. The preliminary experiments prove that the proposed method is expected to improve the big data transmission quality in terms of space efficiency.
A Study on Reinforcement Learning Techniques for Deterministic Ultra-Low Latency in 5G and Beyond
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.386-387
The IEEE 802.1 time sensitive networking (TSN) and IETF deterministic networking (DetNet) standards guarantee ultra-low latency (ULL) communications in 5G networks and beyond. The DetNet standard can warrant deterministic ULL through the use of reinforcement learning (RL)-based data forwarding algorithms. Therefore, this study presents an overview of the DetNet mechanisms and explores the RL data forwarding techniques. It is shown that RL algorithms are capable of adjusting effectively the data transmission for deterministic applications, according to the resource usage of the networks.
In this study, we develop a time series based solar power failure determination algorithm that predicts its own generation amount by sharing power generation information with neighboring sites without relying on meteorological data of the Meteorological Agency and compares it with the power generation amount obtained in real time to determine the presence or absence of a failure. For the implementation of the algorithm, we design a prediction model based on deep learning using LSTM function and implement a model that predicts the amount of solar power that changes in real time. After the development of LSTM model, the RMSE was 93.85 as a result of preliminary test by comparing the predicted and the measured photovoltaic power generation. As the data learning process progresses and as the optimization process is continued, the prediction performance is expected to be further improved.
Hard Negative Mining 과 표본 선택을 통한 불균형 데이터세트 학습 기법
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.391-394
일반적으로 Object Detection을 수행하는 경우에서 객체가 있는 전경(Foreground)보다, 객체가 없 는 Background 영역이 더 많다. 이 문제는 객체의 클래스 불균형 문제를 일으키기 때문에 불균형한 학습으로 이루어질 수 있다. Classification의 경우에도 마찬가지이다. 한가지 클래스에 치우친 데이터 세트나, 불균형한 분포를 이루는 데이터 세트를 Imbalanced Dataset 이라고 하는데 불균형한 데이터 세트는 성능과 학습 과정에 치명적인 영향을 미치기 때문에 균형 잡힌 데이터 세트를 만드는 것은 상 당히 중요한 문제이다. 불균형한 문제를 해결하기 위해 Sample Selection 기법의 하나인, Hard Negative Mining 방법을 적용하고, 데이터를 비율에 맞게 추출하기 위해 K-Means Clustering 기법을 적용한다. 본 논문에서 소개되는 COVID-Net은 COVID-19에 대한 양성, 음성을 결정하는 Classification Network이지만, COVID-19의 데이터 세트는 전체 데이터의 약 25.2%만 차지하는 불균 형한 데이터 세트로 이루어져 있다. COVID-Net의 불균형한 데이터 세트로 인해 상대적으로 높은 COVID-19의 False Positive를 보여준다. 데이터 세트 이미지 클래스의 적절한 분포는 COVID-Net의 향상된 성능을 도출하기 때문에 Hard Negative Mining을 사용하여 균형 데이터 세트를 생성하여 Fine tuning을 실시하여 COVID-19 클래스의 더 높은 정확도를 보장하여 범유행 상황에서 임상의에 게 더욱 빠른 대처를 할 수 있게 해준다.
COVID-19의 확산으로 공중 보건에 대한 관심이 어느 때 보다 많아지고 있다. 기침은 COVID- 19 뿐만 아니라 다양한 감염성 질환의 주요 감염 경로 중 하나다. COVID-19는 주로 호흡기를 통 해 사람에게서 사람으로 전파되며, 공기를 통해 퍼지기 때문에 오염된 공기를 그대로 들이마시거나, 감염자의 비말이 묻어서 오염된 물체의 표면을 손으로 만진 뒤 얼굴이나 입을 다시 만지는 행위 등 으로 감염된다. 이러한 원인들 때문에 기침시에는 마스크를 착용하거나 팔 등으로 막는게 가장 중 요하다. 기침 소리를 감지하는 모델을 만들고 기침 소리가 발생하면 마스크 착용 여부나 기침 에티 켓 등을 방송하는 등 추가적인 응용이 가능한 시스템을 연구했다. 녹음기나 마이크를 통해 소리를 녹음하고 이미지 분류 딥 러닝 모델로 소리를 기침하는지 아닌지를 판단하기 위해 이미지로 변환한 다. 변환된 이미지를 분류 모델을 통해 기침인지 아닌지 판단하며 기침일 경우에는 추가적으로 여 러 응용이 가능하다. 실험은 자체 녹음된 소리에 대해 기침소리 샘플 15개와 일상소리 샘플 15개 로 총 30개 중 23개를 맞추어 76.67%의 정확도를 보여준다. 이는 데이터 세트에 샘플이 부족하기 때문으로 추정되는데 소리 데이터셋의 경우 특정 소리에 대한 데이터보단 여러 소리에 대한 데이터 셋이 대부분이기 때문이다.
딥러닝을 이용한 AR 환경에서의 효과적인 실시간 손 추적 시스템에 관한 연구
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.398-400
증강현실(AR: Augmented Reality) 및 가상현실(VR: Virtual Reality)은 현대인에게 매우 친숙한 기술이 되 어가고 있으며 이러한 기술의 발전에 맞추어 점점 경량화된 HMD(Head Mounted Display)도 등장하고 있다. 대표적인 조작방식은 컨트롤러의 버튼을 누르거나 스크린을 터치하는 방식이 있다. 이러한 방식 은 보조적인 장비를 통해 AR 환경에서 물체를 조작하기 때문에 직접 손으로 조작하는 방식보다는 현 실감이 떨어진다. 본 논문에서는 이러한 장비 없이 손으로만 AR 환경 내의 물체를 직접 조작하기 위 한 새로운 시스템을 제안한다. 이 시스템은 주변 환경 변화에 강인한 대응을 위해 YOLO 알고리즘을 사용하여 손을 인식하고, 실시간의 빠른 속도로 손의 모양을 인식하고 추적하기 위해 HSV(Hue Saturation Value) 색상 모델을 사용한다. 추가적으로 가상의 3D 공간 내에서 손을 움직일 수 있도록 가상 손을 생성한다. 제안한 방식은 의료, 국방, 교육 분야 내 AR/VR 장비를 이용할 수 없는 환경에서 도 고도화된 작업에 적용할 수 있다고 기대한다.
ResUNet++ 기반 이미지 복원 기법을 사용한 이상 탐지 시스템
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.401-403
이상 감지는 비디오 프레임에서 정상 이벤트에서 벗어난 이상 영역의 위치를 찾아내거나 또는 주어진 이미지에 대한 이상 상황 분류 문제에 중점을 둔다. 최근에는 입력 영상과 재구성 영상의 차이를 계산하여 이상 영역을 탐지하기 위해 오토 인코더 또는 UNet과 같은 딥 러닝 모델을 사용하는 접근 방식이 많이 제안되었다. 이러한 접근 방식은 오토 인코더 또는 UNet과 같은 모델이 비정상적인 영역에 대해서는 재구성할 수 없다고 가정한다. 그러나 이러한 접근 방식은 자동 인코더 또는 UNet가 가지는 높은 일반화 성능으로 인해 이상 영역도 정상 영역과 마찬가지로 충분히 잘 재구성하여 차이가 두드러지지 않는 문제가 흔히 발생한다. 이러한 문제를 해결하기 위해 본 연구에서는 이미지 영역의 특정 부분들을 제거하고 제거한 부분들에 대해 인페인팅 기법을 적용해 다시 이미지를 재구성하는 고급 이상 탐지 방식을 채택하였다. 또한, UNet 모델을 좀 더 개선한 모델인 ResUNet++를 이상 탐지 네트워크로서 사용하였다. 본 연구의 실험에서는 이상 탐지 분야에서 자주 사용되는 데이터 셋 중 하나인 UCSD Ped2 데이터 셋을 사용하였다. 실험 결과 본 연구에서 제안한 ResUNet++를 사용한 모델이 이상 영역을 잘 감지할 수 있음을 확인하였다.
완공된 건축물에서 나타나는 대다수의 균열은 구조적, 설계적, 시공적 결함의 문제로 나타나며, 안전을 위해 균열에 대한 탐지와 점검이 이루어져야 한다. 특히 조적벽 건물의 균열은 일반적인 평평한 벽면에서 발생하는 균열과 다르게, 울퉁불퉁한 벽면에서 발생하는 조적벽 균열은 일반적인 점검을 어렵게 하는 요소들이 존재한다. 이는 많은 인력과 자금 및 시간이 있어야 하는 문제를 가지고 있다. 즉, 객관적인 점검 결과를 제시해줄 수 있고, 점검에 필요한 자원을 절약해줄 수 있는 연구가 필요하다. 초기에는 영상 처리(Image Processing)기술을 이용한 균열 탐지 방법이 연구되었으나, 노이즈에 취약하고, 영상의 형상 별로 별도의 필터를 모델링해야 한다. 최근에는 딥러닝(Deep Learning)을 활용한 방법으로 균열 탐지 연구가 활발히 진행되고 있다. 본 연구에서는 U-Net 딥러닝 모델을 이용하여 딥러닝 기반 조적벽 균열 탐지 모델을 제안하였다.
M-SegNet: MRI에서 뇌 조직을 분할하기 위한 CNN 아키텍처
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.409-411
백질(WM), 회백질(GM), 뇌척수액(CSF) 등 뇌 조직의 정량적 분석에 뇌 자기공명영상(MRI)의 자동적이고 정확한 분할이 상당히 중요하다. 최근 몇 년 동안, 과학 연구와 임상 진단에서 인간의 뇌를 검사하기 위해 많은 딥 러닝 기술이 사용되어 왔다. 본 논문에서는 M-SegNet 아키텍처를 사용하여 MRI에서 뇌 조직의 새 로운 분할을 제안하였다. 뇌 MRI의 슬라이스는 인코더 단계에서 해당 접지 진실의 패치를 M-SegNet 아키 텍처에 공급하는 겹치지 않는 균일한 패치로 분할된다. 또한, 크기가 다른 멀티 스케일 컨볼루션 커널은 인 코더와 디코더 모듈에 사용되어 뇌 MRI 스캔에서 풍부한 의미적 특징을 도출한다. 마지막으로, 공개적으로 사용 가능한 데이터 세트에 대한 의미 분할 작업을 위해 제안된 아키텍처를 조사한다. 실험 결과는 제안된 패치별 M-SegNet 모델이 평균 0.95의 주사위 유사성 계수(DSC) 점수를 달성하고 기존 방법을 능가한다는 것을 보여준다.
An automatic and accurate segmentation of brain magnetic resonance imaging (MRI) is significantly important for quantitative analysis of brain tissues such as white matter (WM), grey matter (GM) and cerebrospinal fluid (CSF). In recent years, many deep learning techniques has been employed to examine the human brain in scientific research and clinical diagnosis. In this paper, we proposed a novel segmentation of brain tissues on MRI using M-SegNet architecture. The slices from the brain MRI is partitioned into uniform non-overlapping patches that are fed to M-SegNet architecture with their corresponding patches of ground truth in the encoder stage. Furthermore, multi-scale convolutional kernels with different sizes are used in the encoder and decoder modules to derive abundant semantic features from brain MRI scans. Finally, we examine the proposed architecture for the task of semantic segmentation on publically available datasets. The experimental results show that the proposed patch-wise M-SegNet model achieves a Dice similarity coefficient (DSC) score of 0.95 in average and outperforms the conventional methods.
Tracking a golf ball to visualize its trajectory had previously been done with complex and expensive systems. Those systems are not in the reach of every people. Here we suggest a more straightforward approach for the same purpose but utilizing only golf shots videos. The proposed system uses image processing and a deep neural network model, YOLO (You Only Live Once) V3. To achieve the goal of tracking the golf ball, the YOLO V3 network and Hough transform localize the ball’s initial position and the frame differencing technique tracks the golf ball. Upon implementation of the method to multiple videos, an acceptable result was obtained.
Challenges in Inter-Slice Handover within Network Slicing Framework for 5G Communication Network
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.415-417
Mobility management introduces a new type of handover called inter-slice handover in a sliced 5G network environment. Users may modify their slices as their needs change over time. However, the current existing handover mechanisms face challenging issues to support interslice handover because of the dense demand among network slice services. Therefore, it needs the motivation to address the issues of mobility management in the inter-slice handover framework. This paper analyzes the blocking probability (BP) during the inter-slice handover process of the 3 service types i.e., massive IoT (mIoT), enhanced mobile broadband (eMBB), and ultra-reliable low latency communications (uRLLC) against the call arrival rate.
안드로이드 퍼미션(permission) 정보를 특징정보로 하여 기계학습 기반으로 안드로이드 멀웨어(malware)를 탐지하는 연구들이 수행되어 왔다. 그러나, 대부분의 기존 연구들에서는 기본 퍼미션(built-in permissions)들만을 추출하여 활용하였으며, 최근 일부 연구들에서 커스텀 퍼미션(custom permission)들을 도입하였다. 본 논문에서는 실험을 통해 안드로이드 멀웨어 탐지에서 커스텀 퍼미션들의 영향을 분석한다. 랜덤 포레스트(Random Forest) 분류기를 적용한 실험 결과, 커스텀 퍼미션들이 멀웨어 탐지 정확도를 1.53% 향상시켜 주었다.
본 논문은 최근 국내 사물인터넷 주요 플랫폼에 대한 구조 분석을 통한 최신 동향을 살펴본다. 세계적으로 IoT 시장이 급격하게 성장함에 따라 클라우드 기반의 IoT 플랫폼이 확산되는 추세이다. 현재 해외 주요 IoT 플랫폼의 구조와 성능, 활용에 대한 연구는 많이 진행되었지만 국내 IoT 플랫폼의 대한 기능, 성능 비교연구는 실제 채택전에 명확한 분석이 필요하다. 이를 위해 현재 국내에 진출한 12개의 IoT 플랫폼의 구조를 분석하였다. 분석한 결과에서 도출된 국내 IoT 플랫폼의 구조와 주요 특징 등을 기술하였다.
모바일 게임용 안드로이드 에뮬레이터에 대한 연구 동향 및 구조 분석
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.425-428
모바일 버전 게임만이 제공되는데 해당 모바일 기기를 갖지 못한 사용자들, PC의 큰 스크린과 높은 해상도에서 모바일 게임을 하고 싶은 사용자들, 그리고 키보드와 정확한 마우스 제어를 통해 더 효과적으로 모바일 게임을 즐기려는 사용자들로 인해, 데스크 톱 컴퓨터(PC)에서 모바일 게임을 하려는 요구가 점차 증가하고 있다. 이에 모바일 게임을 PC에서 플레이할 수 있게 하는 Bluestacks, Nox, MEmu 등의 안드로이드 에뮬레이터들이 주목받으면서 확산되고 있다. 본 논문에서는 모바일 게임용 안드로이드 에뮬레이터들에 대한 연구 동향을 살펴보고, ABI (Application Binary Interface)와 Houdini에 대해 간단히 분석한다.
차세대 햅틱 컨트롤러를 위한 가상현실 콘텐츠용 입력매핑 시스템
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.429-431
가상현실 분야에서 활발하게 연구되고 있는 차세대 햅틱 컨트롤러들을 기존 개발된 콘텐츠들에 적용할 수 있도록 이벤트 중심으로 콘텐츠 단위의 표준을 정의하여 입력신호를 중개하는 시스템을 제안한다. 기존 가상현실 콘텐츠들은 표준화된 상용 햅틱 컨트롤러들에 대한 인자값을 토대로 개발되어 있다. 이러한 장치의 표준은 개발을 용이하게 하지만 다양한 차세대 햅틱 장치들의 기능을 전부 수용하지 못한다. 제안하는 시스템은 콘텐츠에서 필요로 하는 특화된 입력 이벤트와 그 이벤트에 해당하는 핸들러를 컨트롤러 개발도구를 이용하여 개발할 수 있도록 하였다. 따라서 기존 콘텐츠들에도 다양한 센서들을 복합해서 사용하는 차세대 컨트롤러들이 콘텐츠에 특화된 드라이버를 제공하여 콘텐츠의 변경 없이 동작시킬 수 있도록 한다.
단일 세포 RNA 시퀀싱 데이터의 세포 유형 식별 방법 비교
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.432-433
단일 세포 RNA 시퀀싱은 세포 하나의 유전자 발현량을 측정하는 기술이다. 전체 세포에 대한 유전자 발현을 평균으로 하는 Bulk 시퀀싱과 달리 단일 세포에서 유전자 발현을 측정하는 기술이며, 특정 조직의 면역세포 분포에 관한 연구, 암 조직을 구성하는 세포들의 유형 연구 등, 다양한 연구 분야에 이용될 수 있다. 하지만, 단일 세포 RNA 시퀀싱 기술에서 얻어진 데이터는 세포의 유형이 구분되어 있지 않으며, 세포 유형을 식별하는 방법이 필요하다. 이를 위한 다양한 방법과 소프트웨어가 개발되었다. 그러나 실제 세포 유형을 올바르게 식별하는 것은 여전히 어려운 일이다. 본 논문에서는 이미 잘 알려진 소프트웨어들을(scSorter, SCINA) 이용하여 세포 유형 예측성능을 비교하였다.
IoT(Internet of Things) 적용 범위가 커지면서 응용 개발 방법에 대한 연구가 주목받고 있다. IoT 응용 지원을 위해 오픈소스 HW 보드로부터 다양한 SW 프레임워크와 프로그래밍 패러다임이 제공되고 있다. 하지만 이러한 다양한 HW 와 프로그래밍 언어, 패러다임으로 개발에 어려움을 겪고 있다. 본 논문에서는 IoT 응용 개발자를 위한 프로그래밍 패러다임의 사례를 조사하고 분석한다. 이벤트 드리븐 방식의 IoT 플랫폼을 중심으로 다양한 응용 방법을 확인한다.
모바일 결제 실시간 이상거래 탐지에서 불균형 데이터를 고려한 기계학습 알고리즘 성능비교 분석
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 학술대회 2021 한국차세대컴퓨팅학회 춘계학술대회 2021.05 pp.436-440
최근 코로나 사태로 인하여 비대면 거래가 점점 증가하는 추세로 그 중 모바일 소액 결제가 점점 높 은 비중을 차지하고 있다. 이와 동시에 모바일 금융 결제를 악용하여 보이스 피싱, 스미싱, 휴대폰 소 액결제 한도를 현금으로 바꿔주는 이른바 '소액결제 깡' 등 이상거래로 인하여 피해 사례도 함께 증가 하는 추세다. 이러한 이상거래는 점점 교묘해지고 피해 유형이 다양해짐에 따라 규칙 기반의 탐지만으 로는 한계가 있다. 이 한계를 보완하기 위해서는 이상 거래 패턴을 스스로 학습하여 이상거래를 스스 로 판단할 수 있는 기계학습 기법을 이용한 이상거래 탐지 시스템 (Fraud Detection System) 구축해 야 한다. 하지만 이상 거래 데이터는 정상 거래에 비해서 현저하게 적기 때문에 기계 학습 시 제한이 있다. 이러한 데이터 불균형을 보완하기 위해서 데이터 전처리 과정에서 Over-Sampling 방법론을 이용한다. 모바일 소액 결제는 사용자 편의성과 동일한 서비스와의 경쟁을 위하여 빠른 속도가 중요하 다. 그리하여 성능이 가장 뛰어난 알고리즘으로 기존의 결제 시스템의 성능보다 뛰어나거나 차이가 없 는 것에 중점을 두고 진행하고자 한다. 이를 기반한 알고리즘을 기존 룰 기반의 탐지 시스템에 연동하 여 이상 거래 탐지율 및 정확도를 상승시키고 오탐률을 최소화함으로써 기존 고객 이탈률을 최소화하 고, 추가적인 이상 거래 피해자 및 금융 이상 거래 발생률을 낮추는 것을 목표로 한다
Speech enhancement is the task of improving the quality of the speech by reducing the noise. The magnitude of the short-time Fourier transform(STFT) or spectrogram is widely used for speech enhancement. However, this approach neglects the noisy phase and limits the quality of enhancement. Recently, short-time discrete cosine transform(STDCT) has been introduced to overcome the limitation of the STFT. STDCT is a real value representation; thus, it does not require phase information to reconstruct the audio. This paper compares the two approaches and analyzes the importance of phase information in speech enhancement. Our experiment shows that when trained under similar condition STFT performs better than STDCT in low noise scenarios, however, for high noise situations, STDCT has better performance than STFT.
0개의 논문이 장바구니에 담겼습니다.
선택하신 파일을 압축중입니다.
잠시만 기다려 주십시오.