2026 (10)
2025 (62)
2024 (55)
2023 (53)
2022 (56)
2021 (51)
2020 (52)
2019 (50)
2018 (53)
2017 (67)
2016 (61)
2015 (54)
2014 (54)
2013 (56)
2012 (56)
2011 (55)
2010 (53)
2009 (44)
2008 (32)
2007 (40)
2006 (44)
2005 (30)
CNN Convolutional Neural Networks)은 영상 분류, 인식 및 검색 작업에 대한 유망한 결과를 보여주었다. 이 러한 관점에서, 스포츠 비디오 분류는 CNN이 덜 탐구된 능동적이고 도전적인 영역으로 남아 있다. 이에 우리는 새 로운 데이터 세트를 생성하여 스포츠 비디오 분류에 대한 CNN의 경험적 평가를 광범위하게 제공한다. 본 논문에서 는 MobileNetV2 (MbNetV2)네트워크를 이용한 CNN 기반 방법과 스포츠 비디오 분류를 위한 롤링 예측 평균 방법을 제안한다. 제안된 방법은 미세조정된 MbNetV2를 사용하여 비디오의 각 프레임을 분류하고 그 예측을 목록 에 저장한다. 롤링 예측 평균에서 마지막 "K" 예측의 평균이 계산되고 프레임에서 가장 높은 확률 레이블이 할당된 다. 우리는 제안한 방법이 스포츠 데이터 세트에서 97.9%의 최고 정확도를 달성한다는 것을 실험적으로 증명한다.
Convolutional Neural Networks(CNNs) have shown encouraging results for image classification, recognition, and retrieval tasks. In this perspective, the sport videos classification remains an active and challenging area where CNNs are less explored. Encouraged by this, we extensively provide an empirical evaluation of CNNs on sport videos classification by creating a new dataset. In this paper, we propose a CNN based method that uses MobileNetV2(MbNetV2) network and a rolling prediction average method for sport videos classification. The proposed method uses fine-tuned MbNetV2 to classify each frame in the video and stores its prediction in a list. In rolling predition average the mean of last "K" predictions is calculated and assigned the highest probability label to the frame. We experimentally prove that our proposed method achieves the best accuracy of 97.9% on our sport dataset.
본 논문에서는 LSTM 오토인코더를 이용하여 라디에이터의 고장진단을 수행하였다. 먼저 라디에이터의 내구연한 랜덤 가진 시험에서 진동 신호를 취득하였으며, Raw data에 10초 단위로 Window를 씌워 시간영역 통계적 특징 을 추출하여 변수로 설정하고 Sliding 기법으로 데이터를 증강하였다. 데이터는 4개의 Stage로 구분되며, Stage 1(정상)만을 훈련 데이터로 사용하고 Stage 2, 4(정상, 비정상) 데이터를 이용하여 모델 최적화 및 평가를 수행하 였다. LSTM 오토인코더 모델의 은닉층과 은닉층 노드의 수, Dropout 비율 및 L2 정규화 파라미터를 최적화하고 평가 결과, ROC 곡선에서 AUC 가 0.9942로 우수한 성능을 확인하였다. 그리고 레이블이 없는 Stage 3의 상세 고장시점을 LSTM 오토인코더로 진단할 수 있었다. 또한 임계점을 조정하여 LSTM 오토인코더의 재구성오차가 임 계점을 초과할 때 고장을 진단할 시, 고장 발생 시점보다 조기에 라디에이터 고장을 예측 진단할 수 있었다.
In this paper, a fault diagnosis of the radiator was performed using the LSTM autoencoder. At first, the vibration signal of radiator were acquired in the random vibration durability test. And the time domain statistical features were extracted from data with 10 seconds window augmented by the sliding technique. The data is divided into 4 stages, and stage 1 (normal) is used as a training data. In addition, the LSTM autoencoder model is optimized and evaluated using stage 2, 4 (normal, abnormal) data. The number of hidden layers and nodes, dropout rate and L2 regularization parameters of the LSTM autoencoder model have been optimized. As a result, the area under the ROC curve was 0.9942 confirming excellent performance. Then the detailed failure point of unlabeled stage 3 was diagnosed using LSTM autoencoder. In addition, fault diagnosis was performed when the reconstruction error of the LSTM autoencoder exceeds the adjusted threshold. As a result, the radiator failure could be predicted earlier than before a failure occurs.
5G시대의 도래와 더불어 엣지 컴퓨팅 기술의 중요성이 최근 다시 한번 더 부각되고 있다. 엣지 컴퓨팅 기술은 클라 우드의 발전과 더불어 클라우드의 기능을 보강하고 정보 전달에 있어서의 효율성 증대를 위해 지속적으로 상호 발전 해 오고 있다. 최근 엣지 컴퓨팅은 클라우드와의 협력뿐만 아니라 5G통신에서도 핵심적인 요소기술로 자리매김해 가고 있다. 올해 발표된 3GPP 표준(Rel-16)에서도 초저지연을 특징으로 하는 5G통신의 호처리 품질을 보장하기 위해서도 엣지 컴퓨팅 개념의 도입이 확대되고 있는 추세라고 본다. 또한 엣지 컴퓨팅은 지속적으로 진화하고 있는 IoT플랫폼 기능과 인공지능 기술들을 엣지 디바이스와 연결해 주는 데 있어서도 그 역할이 더욱 강화되어 가고 있 다. 본 논문에서는 엣지 컴퓨팅의 초기 태동 배경과 기술 발전 흐름을 다시 한번 정리해 보고, 연관된 기술들과의 개념적인 차이점과 특징을 살펴보고자 한다. 끝으로 엣지 컴퓨팅의 대표적인 상용화 사례와 향후 전망에 대해서도 고찰해 보았다.
With the advent of the 5G era, the importance of edge computing technology has become more prominent in recent years. With the evolution of the cloud, edge computing technology continues to evolve to enhance the capabilities of the cloud and increase efficiency in information delivery. In recent years, edge computing has become a key element in 5G communication as well as cooperation with the cloud. In the 3GPP standard (Rel-16) announced this year, the introduction of edge computing concepts is also seen as expanding in order to ensure the quality of the 5G communication characterized by ultra-low latency. In addition, edge computing is strengthening its role in connecting the ever-evolving IoT platform functions and artificial intelligence technologies with edge devices. In this paper, we will revisit the early beginnings of edge computing and the technological developments, and examine conceptual differences and characteristics of the technologies involved. Finally, we also looked at some of the typical commercialization cases of edge computing and the future prospects.
MMOG(Massive Multi-player On-line Game)는 전세계 수많은 사용자들이 특정 실시간 가상 환경을 공유할 수 있는 대규모 분산 응용이다. 본 논문에서는 MMOG를 지원하기 위하여 P2P(Peer-to-Peer)와 클라우드 컴퓨 팅의 기술적 장점을 결합하는 기법을 제시한다. 클라우드 컴퓨팅은 MMOG 운영자들로 하여금 하드웨어 구매와 유 지 부담을 감소시켜주는 적절한 해결책이며 P2P 시스템은 추가적인 하드웨어 확장이 없어도 성장 가능성을 거의 무제한으로 유지할 수 있다. 제시된 클라우드 기반 P2P 시스템에서도 사용자수가 급증할 경우 사용자들의 많은 자 원을 기반 구조로 추가할 수 있기 때문에 우수한 수준의 확장성이 제공된다. 제시된 시스템은 사용자의 처리 능력을 활용함으로써 클라우드에 있는 서버의 부하 즉 상당한 컴퓨팅 능력과 통신량을 절감할 수 있다. 본 논문에서는 MMOG의 확장성을 위하여 두 기법이 결합된 클라우드 기반 P2P 시스템의 개념과 기본적 구조를 기술한다. 시뮬 레이션 결과 제시된 시스템을 사용하는 MMOG는 전형적인 클라이언트-서버 시스템에 기반한 MMOG보다 서버의 통신량이 감소되며 성능이 향상된 것으로 나타났다.
MMOGs are large-scale distributed applications that allowing a huge amount of users worldwide to share a real-time virtual environment. In this paper, we propose an approach that combines the technological advantages of P2P and cloud computing to support MMOGs. Cloud computing represents an attractive solution, as it lifts MMOG operators from the burden of buying and maintaining hardware. P2P systems have the potential to grow almost limitlessly, without the need of any large hardware upgrade. The proposed cloud-based P2P system also provides a greater level of scalability because their more resources are added to the infrastructure even when the amout of users grows. This system relieves a lot of computational power and network traffic, the load on the servers in the cloud by exploiting the capacity of the peers. In this paper, we describe the concept and basic architecture of cloud-based P2P System for a considerable scale of MMOGs. The simulation results show that MMOGs using the proposed system have better performance and lower traffic of the server compared with MMOGs based on traditional client-server system.
Kubernetes 환경에서 pod 및 sharding의 변화에 따른 MySQL 클러스터 성능 분석
한국차세대컴퓨팅학회 한국차세대컴퓨팅학회 논문지 Vol.16 No.6 2020.12 pp.48-55
최근 클라우드 서비스에 관한 기술이 많이 나오고 있으며 그 중 컨테이너를 관리하는 기술이 주목받고 있다. 컨테이 너 관리 플랫폼은 애플리케이션을 더욱 효율적이고 편리하게 하지만 응용 프로그램 성능에 영향을 주는 요소가 많이 있다. 본 논문에서는 컨테이너 관리 플랫폼 중 대표적인 Kubernetes 환경에서 MySQL 클러스터의 성능에 관한 연구한다. Kubernetes에서는 최소 단위 pod 및 데이터베이스 sharding이 MySQL 클러스터의 성능에 미치는 영 향을 탐색하기 위한 실험을 수행한다. 실험 결과에 따르면 pod는 MySQL 클러스터의 성능을 향상할 수 있지만 sharding이 긍정적 효과와 부정적인 효과가 모두 있다. 쿼리 프로세스를 분석하고 부정적인 영향을 미치는 요소를 찾은 다음에 MySQL 클러스터 매개변수를 조정하며, 조정된 MySQL 클러스터의 성능이 향상됨을 보인다. 마지막 으로, Kubernetes에서 MySQL 클러스터를 효과적으로 배치하는 방법을 제시한다.
Recently, there are many technologies related to cloud services, and among them, the technology for managing containers is drawing attention. Container management platforms make applications more efficient and convenient, but there are many factors that affect application performance. In this paper, we study the performance of MySQL cluster in Kubernetes, a representative container management platform. Kubernetes conducts an experiment to explore the effect of minimal unit pod and database sharding on the performance of MySQL cluster. Experimental results show that pods can improve the performance of MySQL clusters, but sharding has both positive and negative effects. After analyzing the query process and finding negative influences, it adjusts the MySQL cluster parameters, and shows that the performance of the tuned MySQL cluster is improved. Finally, we show you how to effectively deploy a MySQL cluster in Kubernetes.
HDFS와 같은 분산 시스템은 다수의 노드를 인터커넥트 네트워크로 연결하여 클러스터로 구성한 HPC(High Performance Computing) 시스템이다. 이러한 시스템에서 인터커넥트 네트워크의 전송방식은 전체 시스템의 성 능에 미치는 영향이 크며, 분산 시스템의 연산 및 저장 방식에 많은 영향을 미친다. 최근, HDFS 시스템은 데이터 연산 및 저장 방식의 복잡화로 네트워크 부하와 노드의 연산 부하 분석을 통한 시스템 최적화가 필요하다. 본 논문 에서는 인터커넥트 네트워크와 HDFS 시스템의 안정성 보장 기법에 대한 다양한 방법의 시스템 성능 실험을 통해 서 HDFS 시스템의 병목현상을 분석해본다. 특히, 이더넷뿐만 아니라 PCIe NTB와 같은 RDMA(Remote Direct Memory Access) 방식의 인터커넥트 네트워크 기반의 HDFS 시스템에서 Erasure Coding 기법에 대한 성능 분 석을 함으로써, RDMA 전송 가능한 PCIe NBT 기반의 인터커넥트 네트워크에서 HDFS 시스템의 안정성 향상 및 성능 향상을 위한 해결 방안을 구상하였다.
A distributed system such as HDFS is a High Performance Computing(HPC) system composed of a cluster by connecting a number of nodes through an interconnect network. In such a system, the Interconnect Network has a large effect on the performance of the entire system, and has a great influence on the storage operations of distributed system. Recently, the HDFS system is required to be optimized by analyzing the network load and the computational load of nodes due to the complexity of the data operation and storage method. In this paper, we have analyzed the bottleneck of HDFS system through system performance experiment of various methods in the aspect of the stability guarantee method of HDFS system. In particular by analyzing the performance of the erasure coding technique in the RDMA interconnect network-based HDFS system such as PCIe NTB as well as Ethernet a solution for improving the stability and performance of the HDFS system in the PCIe NTB-based interconnect network capable of RDMA transfer could be figured out.
최근 인공지능을 활용한 서비스 고급화는 선택이 아닌 필수가 되었다. 그에 따라 인공지능의 연구도 가속화되어 효 율적인 인공지능 연구를 위한 방법 또한 주목 받고 있다. 대표적인 방법으로는 연구 과정에서 효과적으로 실험을 관 리할 수 있는 도구를 사용하는 것이다. 기존의 딥러닝 연구는 파편적인 작업 방식을 기반으로 한 협업과 학습 결과 최적화를 위한 반복 작업으로 인해 비효율적이었다. 본 연구는 이러한 문제점을 개선하기 위해 인공지능 분야 중 딥 러닝에 초점을 맞추어 편리하고 생산적인 연구 환경을 제공할 수 있는 협업 기반의 딥러닝 실험 관리 도구인 digo(dig와 go의 합성어로 반복적인 딥러닝 연구를 표현하는 단어를 조합)를 설계 및 구현하였다. 기계학습 연구자 들을 대상으로 실험 및 설문조사를 실시하여 딥러닝 실험 관리 도구의 성능을 검증하였고, 하이퍼 파라미터 자동 최 적화 및 학습 결과 시각화 기능의 편의성을 확인하였다.
Recently, advanced service using artificial intelligence has become a necessity, not an option. As a result, research on artificial intelligence has been accelerated, drawing attention to methods for efficient artificial intelligence research. A typical method is to use tools to effectively manage experiments in the course of the study. Existing deep learning studies have been inefficient due to collaboration based on fragmentary work methods and repetitive tasks for optimizing learning results. To improve these problems, this work designs and implements Digo(a combination of words that represent repetitive deep learning research as a compound word of dig and go), a collaborative-based deep learning experiment management tool that can provide a convenient and productive research environment, focusing on deep learning among artificial intelligence. Experiments and surveys were conducted on machine learning researchers to validate the performance of deep learning experimental management tools, and to confirm the convenience of hyperparameter automatic optimization and learning result visualization features.
수요예측은 제품에 대한 수요량을 예측해 자원을 관리하기 위한 방법으로, 기업의 노동력과 예산 관리에 영향을 미 친다. 이러한 이유로 수요예측 모델의 성능 향상을 위한 연구가 주목을 받고 있다. 본 연구에서는 수요예측 성능 향 상을 위해 품목의 수요 패턴을 분석해 4가지 유형으로 구분하고, 각 유형에 적합한 모델을 제안한다. 성능 비교를 위해 사용한 데이터는 대한민국 공군 T-50 단일 기종의 수리 부속 품목의 분기 별 수요 데이터이다. 품목의 수요 패턴은 수요발생구간(average demand interval, ADI)과 변동 계수(coefficient of variation, CV)를 사용해 네 가지 smooth, lumpy, intermittent, erratic으로 구분하며 다양한 알고리즘으로 구현한 수요예측 모델의 성 능을 비교하기 위해 5가지 기계학습 알고리즘과 2 가지 딥러닝 알고리즘을 사용해 수요예측 모델을 구현한다. 기계 학습 알고리즘 중에는 앙상블 알고리즘인 random forest regression, adaboost, extra trees regression, bagging, gradient boosting regression 과 딥러닝 알고리즘인 long-short term memory(LSTM), deep neural network(DNN)을 사용한다. 수요 패턴에 따른 네 가지 유형에 적합한 모델을 선정해 수요예측 결과를 도 출한 경우가 일관된 모델을 사용한 경우에 비해 품목 정확도가 0.61%, 수량 정확도가 0.09 우수한 것을 확인할 수 있다. 제안하는 모델을 적용한다면 전문가의 효율적인 수요 관리가 이루어질 수 있을 것으로 기대한다.
Demand forecasting is a way to manage resources by forecasting demands for products, so it has direct impacts on corporate resources and budget management. Based on these reasons, research on improving forecasting performances of demand forecasting models. In this research, 4 demand patterns for items were analyzed to improve demand prediction performance, and the optimal model was proposed. The data used to compare the performance were the demand data from each quarter for maintenance items for a T-50 aircraft of Republic of Korea air force. First, the demand patterns for the items adopted average demand interval(ADI) and coefficient of variation(CV) and were categorized into smooth, lumpy, intermittent, and erratic items. In this research, to compare the performance of demand forecasting models derived from different algorithms, 5 types of machine learning algorithms and 2 types of deep learning algorithms were used to construct demand forecasting models. In machine learning algorithms, there are ensemble learning such as random forest regression, adaboost, extra trees regression, bagging, gradient boosting regression and deep learning algorithm such as long-short term memory(LSTM) and deep neural network(DNN). We can confirm that item accuracy is 0.61% and quantity accuracy is 0.09% better than that of consistent models when the demand forecast results are derived by selecting models suitable for four types according to demand patterns. We expect that efficient demand management by experts will be achieved if the application of the proposed model.
0개의 논문이 장바구니에 담겼습니다.
선택하신 파일을 압축중입니다.
잠시만 기다려 주십시오.