Earticle

현재 위치 Home

Issues

한국차세대컴퓨팅학회 논문지 [THE JOURNAL OF KOREAN INSTITUTE OF NEXT GENERATION COMPUTING]

간행물 정보
  • 자료유형
    학술지
  • 발행기관
    한국차세대컴퓨팅학회 [Korean Institute of Next Generation Computing]
  • pISSN
    1975-681X
  • 간기
    격월간
  • 수록기간
    2005 ~ 2026
  • 등재여부
    KCI 등재
  • 주제분류
    공학 > 컴퓨터학
  • 십진분류
    KDC 566 DDC 004
Vol.21 No.5 (12건)
No
1

마이크로서비스 아키텍처는 구성 요소의 독립성을 보장하여 유지보수성을 높이고 사용자 요구사항을 민첩하게 반영 하는 소프트웨어 아키텍처를 말한다. 마이크로서비스 아키텍처는 구성 요소 독립성을 보장하기 위해 컨테이너 가상 화 기술을 접목한 마이크로서비스 구축 방법을 주로 활용하며, 개별 마이크로서비스의 연결 명세 또는 모델을 활용 해 마이크로서비스 간 연관 관계를 수립한다. 그러나, 마이크로서비스 아키텍처를 활용하여 기존 서비스를 개선하거 나 새로운 서비스를 개발하기 위해서는 소프트웨어 네트워크, 소프트웨어 모델링, 자원 가상화 등의 다양한 기반 지 식이 요구된다. 이는, 마이크로서비스 아키텍처를 분석하고 활용하는 과정에서 진입장벽으로 동작하며, 명확한 구축 방안을 수립하기 어렵게 만드는 요인이 된다. 따라서, 본 논문에서는 마이크로서비스 아키텍처 도입의 진입장벽을 낮추고 자동화 기반 기술을 제공하기 위해, 즉각적인 피드백과 추가 학습이 가능한 생성형 AI 기반의 마이크로서비 스 아키텍처의 학습 기반 관리 방법을 제시한다. 제시하는 방법은 컨테이너 기반 마이크로서비스를 구축하는 컨테이 너 명세를 생성형 AI를 통해 도출한다. 또한, 마이크로서비스 아키텍처의 기능 관계 도출을 지원하기 위해 BCE 패 턴 정의에 기반한 약결합 및 기능 명세를 학습하여 마이크로서비스 간의 결합 결정을 지원하는 방법을 제시한다. 제 시하는 방법은 쿠버네티스 컨테이너 환경의 마이크로서비스 배포 과정에서 생성형 AI 모델인 GPT를 활용한 사례 연구를 통해 본 논문에서 제시한 방법이 마이크로서비스를 구축하고 결합 결정을 지원하기 적합함을 확인한다. 본 논문에서 제시한 마이크로서비스 학습 기반 관리 방법은 마이크로서비스의 도입에 기술적 어려움을 겪는 다양한 IT 서비스 관계자들을 지원할 수 있을 것으로 기대된다.

Microservice architecture refers to a software architecture that guarantees the independence of components to increase maintainability and nimbly reflects user requirements. Microservice architecture mainly utilizes a microservice construction method that incorporates container virtualization technology to ensure component independence, and establishes relationships between microservices by utilizing connection specifications or models of individual microservices. However, improving existing services or developing new services using microservice architecture requires various basic knowledge such as software networks, software modeling, and resource virtualization. This acts as an entry barrier to analyzing and utilizing microservice architecture, and is a factor that makes it difficult to establish a clear construction plan. Therefore, in this paper, we propose a learning-based management method for microservice architecture based on generative AI that enables immediate feedback and additional learning in order to lower the entry barrier to introducing microservice architecture and provide automation-based technology. The proposed method derives a container specification that builds container based microservices through generative AI. In addition, we propose a method that can determine the coupling between microservices by learning loose coupling and functional specifications based on the BCE pattern definition to support the derivation of functional relationships in microservice architecture. The proposed method is suitable for building microservices and supporting combination decisions through a case study utilizing GPT, a generative AI model, in the process of deploying microservices in a Kubernetes container environment. It is expected that the microservice learning-based management method presented in this paper will be able to support various IT service providers who are experiencing technical difficulties in introducing microservices.

2

화자 인식 기술은 음성의 내용과 무관하게 음색, 피치, 포먼트, 운율 등 각 개인의 고유한 음성 특성을 기반으로 사 람을 식별하는 기술이다. 이러한 음성 특성들은 다양한 분야에서 화자를 인증하거나 구별하는 데 효과적으로 활용될 수 있으며, 특히 보이스피싱과 같은 사기 행위가 빈번히 발생하는 분야에서 신뢰성 높은 개인 인증을 제공한다. 일 반적으로 화자 인식 모델은 16 kHz로 샘플링된 VoxCeleb와 같은 데이터셋으로 학습된다. 그러나 실제 전화 통신 환경에서는 주로 8 kHz의 낮은 샘플링 레이트를 사용하는 제한대역 음성이 사용되므로, 이러한 환경에서도 성능 저하 없이 작동 가능한 화자 인식 모델 개발이 필수적이다. 본 논문에서는 제한대역 음성 환경에서 화자 인식 시스템 의 성능 저하를 완화하기 위해 다양한 음성 특징을 추출하고 결합하는 방법을 제안한다. 구체적으로 기본 스펙트로그 램, 멜 스펙트로그램, 선형 스펙트로그램, MFCC와 같은 다양한 스펙트로그램 특징과 상수-Q 변환(Constant-Q Transform, CQT), 그리고 크로마(chroma), 대비(contrast), 톤네츠(tonnetz), 영교차율(zero-crossing rate)을 포함한 CCTZ 특징 세트를 추출하였다. 실험에서는 다양한 조합으로 이 특징들을 융합하여 모델의 강인성 을 향상시키고자 하였다. 실험 결과, 여러 특징들을 융합한 모델이 단일 특징을 사용한 모델보다 우수한 성능을 보 였으며, 특히 16 kHz에서 훈련된 모델을 8 kHz 음성 데이터로 평가했을 때, 특징 융합을 하지 않은 경우 대비 약 0.65%의 등오류율(Equal Error Rate, EER) 개선 효과가 나타났다. 이와 같은 결과는 실제 전화 통신 환경에서 제한대역 음성에 대한 화자 인식 성능을 향상시키는 데 있어서 다중 특징 융합이 매우 효과적임을 시사한다.

Speaker recognition technology identifies individuals independently of the speech content based on their unique voice characteristics, such as timbre, pitch, formants, and prosody. These vocal traits are leveraged to reliably authenticate or differentiate between speakers in various applications, offering a robust approach to secure and efficient identity verification. This technology aims to determine whether a voice belongs to a registered speaker, especially in cases where fraudulent activities are common, such as voice phishing. Typically, speaker recognition models are trained on datasets such as VoxCeleb, which are sampled at 16 kHz. However, phone communication often involves a lower sampling rate, specifically 8 kHz. To ensure robust speaker recognition in these environments, it is necessary to develop models that can function effectively even with limitedbandwidth speech data. In this study, we aim to mitigate the degradation in the performance of speaker recognition systems for limited-bandwidth speech by extracting and combining various speech features. Specifically, we extract multiple spectrogram forms(vanilla, mel, linear, and MFCC), as well as features such as the constant Q-transform(CQT) and the CCTZ set, which includes chroma, contrast, tonnetz, and the zero-crossing rate. These features are fused in various configurations to enhance the robustness of the model. The experimental results reveal that the fusion of multiple features outperforms the use of single features alone. Moreover, we observed an approximate 0.65% improvement in the equal error rate(EER) when the model trained on 16 kHz data was tested on 8 kHz speech compared to its performance without such feature combinations. These findings highlight the effectiveness of feature fusion for enhancing speaker recognition for limited-bandwidth speech in real-world telecommunication environments.

3

RAG (Retrieval-Augmented Generation)은 대형 언어 모델(Large Language Model, LLM)의 한계를 보완 하기 위해 외부 지식을 활용하는 방식으로, 질의응답 정확도 향상에 널리 활용되고 있다. 그러나 모든 질문에 대해 일률적으로 검색을 수행하는 기존 RAG 구조는 응답 지연과 불필요한 계산 비용을 초래할 수 있다. 본 연구에서는 언어 모델이 응답과 함께 산출한 확신도(Confidence) 점수를 기반으로, 확신도가 낮은 경우에만 검색을 수행하는 선택적 RAG 호출 전략을 제안한 다. 또한 단순 확신도 기반 판단의 한계를 보완하기 위해, 최신성, 수치 요구, 정 의 요청과 같은 검색 필요성이 높은 질문 유형을 예외적으로 처리하는 메커니즘도 함께 도입하였다. 실험은 일반 상 식 질의(Natural Questions)와 최신 트렌드 기반의 신조어 질의를 포함한 두 가지 데이터셋에서 수행되었으며, GPT와 DeepSeek을 통해 평가되었다. 그 결과, 제안한 전략은 전체 정답률을 유지하면서도 검색 호출 횟수를 평 균 50% 이상 절감하였다. 본 연구는 LLM의 내재적 판단 능력과 질문 특성 분석을 결합함으로써, RAG 시스템의 정확성과 효율성을 동시에 향상시킬 수 있는 실용적 방안을 제시한다.

Retrieval-Augmented Generation (RAG) is widely used to enhance the accuracy of large language models (LLMs) by supplementing their responses with external knowledge. However, the conventional RAG approach, which performs retrieval for every query, can lead to unnecessary latency and computational cost. In this paper, we propose a selective RAG strategy that triggers retrieval only when the confidence score generated by the LLM falls below a predefined threshold. To further address the limitations of relying solely on confidence, we introduce an exception handling mechanism based on specific query traits, such as recency, factual specificity, and definitionseeking intent, which are more likely to require retrieval regardless of confidence. We conduct experiments on two datasets: general knowledge questions from the Natural Questions benchmark and Korean neologism queries that reflect recent linguistic trends. Evaluations are performed using multiple language models, including GPT-4o, GPT-3.5-turbo, and DeepSeek-Chat. Results show that our approach reduces retrieval calls by more than 50% on average while maintaining answer accuracy comparable to the full RAG setting. This demonstrates that combining LLM’s intrinsic confidence estimation with query trait analysis can significantly improve both the efficiency and practicality of RAG systems.

4

효과적인 비만 관리는 예방 의료의 중요한 요소이며, 특히 비만 환자에게 더욱 그러하다. 그러나 장기적인 체중 변 화 추세를 예측하는 신뢰할 수 있는 방법은 여전히 제한적이다. 본 연구에서는 생체 전기 임피던스 분석(BIA) 데이 터를 이용하여 체성분 기반 체중 예측을 위한 두 가지 새로운 접근 방식을 제안한다. 첫 번째 접근 방식은 지방량 (FM)과 제지방량(SLM)을 주요 입력 변수로 하는 통계적 선형 회귀 모델을 활용한다. 두 번째 접근 방식은 FM과 SLM 간의 관계를 기반으로 개인별 파라미터를 도출하기 위해 Forbes 이론을 통합한 ARIMA(Auto-regressive Integrated Moving Average) 모델을 사용한다. 45명의 참가자로부터 InBody 720 다중 주파수 BIA 시스템을 사용하여 6개월 동안의 종단적 체성분 데이터를 수집하여 약 300개의 데이터 포인트를 얻었다. 실험 결과, FM만 을 사용한 선형 회귀 모델이 0.999의 상관 계수와 0.57kg의 제곱근 평균 제곱 오차(RMSE)로 가장 높은 예측 성 능을 보였다. SLM을 사용한 회귀 모델과 FM 및 SLM을 사용한 ARIMA 기반 모델은 모두 0.998의 상관 계수를 나타냈으며, RMSE는 각각 0.7kg과 0.87kg이었다. 이러한 결과는 BIA 기반 데이터와 해석 가능한 모델링 기술 을 활용하여 비침습적이고 지속적인 체중 모니터링의 가능성을 입증한다. 제안된 프레임워크는 개인 맞춤형 건강 추 적 및 장기적인 비만 관리를 위한 실용적인 도구를 제시한다.

Effective obesity management requires reliable long-term weight change prediction. This study proposes two body composition-based weight prediction methods using bioelectrical impedance analysis (BIA) data. The first uses linear regression with fat mass(FM) and soft lean mass(SLM). The second employs an ARIMA model integrating Forbes' theory for personalized parameters. Six-month longitudinal BIA data from 45 participants were analyzed. Results showed the FM-based linear regression model achieved the best performance(correlation=0.999, RMSE=0.57kg). SLM-based regression and ARIMA models also showed high correlations(0.998). These findings demonstrate the potential of BIA and interpretable models for non-invasive, continuous body weight monitoring and personalized obesity management.

5

최근 자연어처리(NLP) 기술의 발전과 더불어, 대화형 AI 시스템이 언어의 함축적 의미를 파악하는 능력의 중요성 이 부각되고 있다. 이 가운데 반어(irony)와 빈정거림(sarcasm)과 같은 비유적 표현은 문맥 의존성이 높고 표현 방식이 다양하여 자동 탐지가 쉽지 않다. 한편, 이와 같은 언어 현상의 자동 탐지를 위한 학습에 필요한 자원은 충분 치 않다. 본 연구는 이러한 언어 현상을 보다 심도 있고 정확하게 처리하고자, 기존에 구축된 두 종류의 한국어 반어 코퍼스, 수작업 기반의 코퍼스와 GPT 기반 자동 생성 코퍼스를 통합하여 단일 코퍼스로 구성하고, 그 특성을 비교· 분석하였다. 통합 코퍼스를 활용한 일련의 실험 결과, 각 코퍼스가 반어 표현의 유형과 구축 방식에 있어 본질적인 차이를 지니고 있어 단일 코퍼스로 통합하여 사용하는 데에는 한계가 있음이 확인되었다. 그러나 두 코퍼스 간 반어 표현 유형은 명확히 구분 가능하였으며, 감성 인식과의 다중 과제 학습 결과에서도 상이한 상관관계가 관찰되었다. 이러한 분석을 바탕으로, 본 연구는 코퍼스 병렬 구조 확장 및 표현 방식 변환을 통해 통합형 반어 코퍼스 구축 방안 을 제안한다. 또한, 본 연구는 한국어 반어 표현의 정밀한 분석을 위한 언어 자원 개발에 기여하며, 향후 감성 분석 및 대화형 인공지능 등 다양한 NLP 응용 분야에서의 활용 가능성을 제시한다.

With the recent advancement of NLP technologies, the ability of conversational AI systems to interpret implicit meanings in language has become increasingly important. Among various linguistic phenomena, figurative expressions such as irony and sarcasm pose particular challenges for automatic detection due to their high contextual dependency and diverse surface realizations. However, resources for training models to detect such expressions remain insufficient. This study aims to improve the depth and accuracy of irony detection by integrating two previously developed Korean irony corpora, one of which is based on manual annotation and the other generated automatically using a GPT-based model, into a single unified corpus. Through a series of experiments, we found that each corpus reflects fundamentally different types of ironic expressions and construction methodologies, which limit the effectiveness of their integration into a single resource. Nevertheless, the types of irony in the two corpora were clearly distinguishable, and multi-task learning with sentiment analysis revealed differing correlations depending on the corpus. Based on this analysis, the study proposes strategies for building an integrated irony corpus by extending its parallel structure and transforming expression styles across corpora. This research contributes to the development of linguistic resources for the fine-grained analysis of Korean irony and offers practical implications for various NLP applications such as sentiment analysis and conversational AI.

6

최근 인공지능 기술과 인공지능을 처리할 수 있는 엣지AI단말의 발전으로, 다양한 영상 분석 서비스에 소프트웨어 정의 카메라(Software-defined Camera)가 활발히 활용되고 있다. 그러나 적용되는 소프트웨어 정의 카메라의 수 가 늘어날수록 소프트웨어 정의 카메라 자체 뿐만 아니라 핵심 구성요소인 엣지AI단말의 관리의 어려움과 비용 문제 가 대두되고 있다. 따라서 본 논문에서는 엣지AI단말의 운영 효율성과 엣지AI단말에서 제공하는 서비스의 성능을 향 상시키기 위한 OTA(Over-the-AIr) 기반의 엣지AI단말 관리 시스템을 제안하고 구현한다. 제안한 시스템은 AI학 습모델과 서비스 애플리케이션의 원격 업데이트 및 관리 기능을 제공함으로써 물리적인 접근 없이도 엣지AI단말을 효율적으로 관리할 수 있도록한다. 또한, 제안한 시스템은 엣지AI단말의 상태정보를 주기적으로 수집하여 실시간으 로 운영상태를 모니터링할 수 있으며, 앞서 언급한 기능들을 Web 기반의 사용자 친화적인 GUI를 통해 제공함으로 써 통합적으로 관리할 수 있도록 한다. 제안한 시스템은 Nvidia Jetson Orin Nano 기반으로 엣지AI단말과 데스크 탑 기반으로 통합관제서버를 구현하였으며, 실증을 통해 설계한 기능들이 정상적으로 동작함을 확인하였다.

With the recent advancements in artificial intelligence(AI) technology and the development of edge AI devices capable of processing AI workloads, software-defined cameras(SDCs) have been widely utilized in various video analysis services. However, as the number of deployed SDCs continues to grow, the complexity and cost of managing not only the cameras themselves but also their core components-edge AI devices-have emerged as significant challenges. To address these issues, this paper proposes and implements an Over-the-AIr(OTA)-based edge AI device management system designed to improve the operational efficiency of edge AI devices and enhance the performance of the services they provide. The proposed system supports remote updates and management of AI models and service applications, enabling efficient mAIntenance without requiring physical access to the devices. Furthermore, it periodically collects device status information to support real-time monitoring of operational conditions and provides all management features through an integrated, user-friendly Web-based graphical user interface(GUI). The system was implemented using Nvidia Jetson Orin Nano-based edge AI devices and a desktop-based integrated control server. Functional verification through practical deployment confirmed the successful operation of all designed components.

7

모델 인버전은 원본 학습 데이터 없이, 사전 학습된 모델로부터 반복적인 최적화를 통해 합성 입력을 복원하는 데이 터 없는 학습에서 널리 사용되는 기법이다. 그러나 최신 비전 트랜스포머에 이를 적용할 경우, 고비용의 셀프 어텐 션 메커니즘으로 인해 큰 계산적 부담이 발생하게 된다. 이를 중요하지 않은 패치들을 모두 제거함으로써 효율성을 향상시키는 희소 모델 인버전이 제안되었다. 하지만 데이터가 없는 상황에서 검증 데이터의 부재로 인한 학습 불안 정성의 증폭은 여전히 해결해야 할 문제로 남아 있다. 검증 데이터가 없는 환경에서는 모델의 정확도가 불확실해지 고, 변동성이 커지므로, 모델의 강건성 향상이 필수적이다. 본 논문에서는 데이터 없는 환경에서 생성되는 이미지의 품질과 다양성을 일관되게 유지하여, 정확도에 대한 표준편차를 낮추고 강건성을 향상시키는 방법을 제안한다. 제안 한 Adaptive AEM은 패치 제거 이후의 중요도를 재조정해 엔트로피 최소화를 촉진시킨다. 실험 결과, 제안한 방법 으로 생성된 이미지를 사용하면 이전 방법론에 비해 데이터 없는 양자화에서는 최대 72%, 데이터 없는 지식 증류 에서는 최대 49%까지 정확도의 표준편차를 줄여 모델을 강건하게 만들 수 있음을 입증한다.

Model inversion is a widely used technique in data-free learning, where synthetic inputs are reconstructed from a pretrained model through iterative optimization without access to the original training data. However, when applied to modern Vision Transformers, the high computational cost of the self-attention mechanism poses a significant challenge. Sparse Model Inversion (SMI) has been proposed to improve efficiency by removing non-essential patches. Nevertheless, in the absence of real validation data, the instability of training remains an unresolved issue, as model accuracy becomes uncertain and exhibits high variance. To address this, we propose a method that consistently preserves the quality and diversity of generated images in data-free environments, thereby reducing the standard deviation of accuracy and enhancing model robustness. The proposed Adaptive AEM readjusts the importance after patch removal to promote entropy minimization. Experimental results demonstrate that using images generated by our method reduces the standard deviation of accuracy by up to 72% in data-free quantization and up to 49% in data-free knowledge distillation, compared to previous approaches, leading to significantly more robust models.

8

고령화 사회에서 치매 환자가 빠르게 증가함에 따라 조기 진단 및 예측의 중요성이 커지고 있다. 본 연구는 2013년 부터 2025년까지 발표된 치매 관련 머신러닝 및 딥러닝 연구를 대상으로 시계열·네트워크 분석을 통해 기술 확산과 발전 경로를 규명하였다. PubMed 데이터베이스에서 수집한 8,422편의 문헌을 기반으로 키워드 빈도, 클러스터, 연결중심성 분석을 수행하여 연구의 구조와 핵심 주제를 도출하였다. 분석 결과, ‘humans’, ‘alzheimer disease’, ‘machine learning’은 전 기간에 걸쳐 높은 중심성을 유지하였으며, 시기별로는 초기 영상처리 기반 연구에서 분자 생물학 연구를 거쳐 환자 중심의 임상·공중보건 연구로 발전하는 경향을 보였다. 4개의 주요 연구 클러스터(의료영 상 분석, 분자생물학·유전학, 역학·임상 데이터 분석, 노인 돌봄·기술 활용)가 식별되었으며, 각 클러스터는 독립적 이면서도 상호 연계된 구조를 형성하였다. 이러한 결과는 치매 연구가 AI 기반 기초·응용 기술의 확산과 함께 융합 적·실용적 연구로 진화하고 있음을 보여주며, 향후 치매 연구의 전략적 방향을 설정하는 데 유용한 시사점을 제공할 것으로 기대된다.

As the population ages, the importance of early diagnosis and prediction of dementia is growing. This study investigated the diffusion and development trajectory of machine learning and deep learning technologies in dementia research from 2013 to 2025 through time-series and network analyses. Based on 8,422 publications retrieved from the PubMed database, keyword frequency, clustering, and degree centrality analyses were conducted to identify the structural and thematic landscape of the field. Results showed that ‘humans,’ ‘Alzheimer disease,’ and ‘machine learning’ consistently held high centrality, with research trends evolving from early image-processing-based studies to molecular biology and, more recently, to patient-centered clinical and public health applications. Four main research clusters were identified—medical image analysis, molecular biology/genetics, epidemiology and clinical data analysis, and elderly care/technology utilization—forming an interconnected yet distinct structure. These results indicate that dementia research is evolving into integrative and practical studies alongside the spread of AI-based basic and applied technologies, and are expected to provide useful insights for setting strategic directions for future dementia research.

9

체성분 분석은 다양한 질병의 진단, 예후 예측 및 치료 반응 평가에 중요한 역할을 한다. 특히 L3 요추 단면에서 피하지방, 내장지방, 골격근의 정량적 평가는 비만, 근감소증, 심혈관 질환 등과 밀접하게 연관되어 있다. 본 연구에 서는 VerSe 공개 데이터셋에 TotalSegmentator를 활용하여 자동 분할을 진행하였다. 자동 분할 후, ITK-SNAP 을 활용하여 과분할 및 누락 영역을 보정하였다. 예측 모델의 성능을 평가하기 위해 Dice 유사도 점수, 민감도, 특 이도 비교 및 Bland-Altman 분석을 수행하였다. 보정한 데이터로 학습한 모델이 보정하지 않은 데이터로 학습한 모델보다 Dice 유사도 점수 측면에서 피하지방, 골격근 부위에서는 높은 성능을 보였고, 조직이 아닌 부위의 분할 오류가 줄었다. 경량화 U-Net의 경우 기본 U-Net보다 Dice 유사도 점수와 특이도가 높았고, Bland-Altman 분 석에서 내장지방의 편향과 일치도 한계 폭이 줄었다. 결론적으로 TotalSegmentator로 자동 분할한 결과를 보정하 지 않고 사용해도 피하지방, 내장지방, 골격근 부위의 Dice 유사도 점수가 0.8이상이 나오지만, 성능을 더 높이고 관심 조직이 아닌 부위의 분할 오류를 줄이려면 보정한 데이터로 학습한 모델을 사용하는 것을 권장한다. 경량화 모 델도 분할 성능이 기본 모델 못지 않으므로 컴퓨팅 자원이 제한된 기기에서 사용을 권장한다.

Body composition analysis plays an important role in diagnosis, prognosis, and treatment monitoring of various diseases. In particular, quantitative evaluation of subcutaneous fat, visceral fat, and skeletal muscle in the third lumbar vertebral cross section is closely related to obesity, sarcopenia, and cardiovascular disease. In this study, the VerSe computed tomography(CT) spine dataset was used, and automatic segmentation was performed using TotalSegmentator. After automatic segmentation, over- and under-segmented regions were manually corrected by using ITK-SNAP. For evaluation of the performance of prediction models, we performed comparisons of Dice similarity score, sensitivity, and specificity as well as Bland-Altman analysis. The model trained on corrected data achieved higher Dice similarity scores in the subcutaneous fat and skeletal muscle than the model trained on uncorrected data, and it resulted in reduction in segmentation errors outside the regions of interest. The lightweight U-Net produced higher Dice similarity scores than the standard U-Net, and it resulted in reductions of the bias and limits of agreement in the visceral fat in Bland- Altman analysis. In conclusion, the use of TotalSegmentator without correction of segmentation errors still produced Dice similarity scores higher than 0.8 in all three regions of interest, but if one wants to improve segmentation performance and reduce segmentation errors outside the regions of interest, we recommend training the models with corrected segmentation masks. We also recommend using lightweight U-Net models, which are on par with standard U-Net models, in the device with limited computing resources.

10

클라우드 서버에 이미지를 위탁하는 사용자가 증가함에 따라 보안 콘텐츠 기반 이미지 검색(SCBIR)의 중요성이 더욱 부각되고 있다. 그러나 공격에 강인성을 가지면서도 검색 성능을 유지할 수 있는 검색 가능한 암호화 이미지를 생성하는 것은 여전히 도전 과제이다. 기존 SCBIR 기법들은 검색 정확도 저하, 보안성 부족, 연산 복잡도 증가 등 의 한계를 보인다. 본 연구에서는 이러한 문제를 해결하기 위해 서브 블록 처리 기반 Perceptual Encryption과 Feature Fusion Descriptor를 통합한 SCBIR 기법을 제안한다. 제안 기법은 암호화 도메인에서 특징 히스토그 램 계산을 가능하게 하여 정확도, 보안성, 계산 효율성 간의 균형을 달성한다. Coral-1K과 GHIM-10K 데이터셋 을 활용한 실험 결과, 평문 이미지와 암호화 이미지 모두에서 유사한 검색 정확도를 확인하였다. 또한 다양한 특징 블록 크기와 암호화 블록 크기를 변화시켜 성능을 최적화함으로써 제안 기법의 우수성을 검증하였다.

With the increasing number of users outsourcing images to cloud servers, secure content-based image retrieval(SCBIR) has become a critical research area. Generating searchable cipher images that provide robustness against attacks and preserve retrieval performance remains a challenge. Towards this, several SCBIR techniques are proposed; however, they often either compromise on search accuracy, lack sufficient security resilience, or suffer from high computational complexity. To address these challenges, we propose a SCBIR scheme that integrates sub-block processingbased perceptual encryption with the feature fusion descriptor. This method enables the calculation of feature histograms in the encrypted domain, striking a better balance between accuracy, security, and computational efficiency. Experimental evaluations conducted on the Coral-1K and GHIM-10K datasets demonstrate that both plain and cipher images exhibit comparable retrieval accuracy. Furthermore, we optimize the proposed scheme by analyzing the impact of varying feature and encryption block sizes, ensuring a comprehensive evaluation of its performance.

11

대규모 문서 집합에서 사용자가 찾고자 하는 정보를 효과적으로 탐색하고 문서 집합의 구성을 이해하는 것은 중요한 과제이다. 기존 문서 임베딩 모델은 고정된 의미 표현만을 생성해 다양한 탐색 의도나 관점을 반영하는 데 한계가 있다. 본 연구는 이를 해결하기 위해 사용자 질의(Query)에 따라 문서 의미 공간을 동적으로 재구성하는 새로운 프 레임워크를 제안한다. 사전 학습 언어 모델(SciBERT)을 활용해 질의와 문서의 관계를 모델링하는 질의 인식 동적 임베딩(Query-Aware Dynamic Embedding)을 생성하며, 이를 UMAP 기반 차원 축소와 HDBSCAN 군집화 에 적용하여 다각적이고 심층적인 문서 탐색을 지원한다. 이 파이프라인은 사용자가 질의를 통해 분석 범위(Scope) 를 능동적으로 조절하며 문서 집합에 대한 통찰력을 얻는 효과적인 탐색 환경을 제공한다.

Effectively exploring user-desired information and understanding the structure of large document collections remain significant challenges. Conventional document embedding models generate static semantic representations, which limit their ability to reflect diverse user intents and perspectives. To address this limitation, this study proposes a novel framework that dynamically reconstructs the semantic space of documents according to a user's query. Leveraging the pre-trained language model SciBERT, the framework generates Query-Aware Dynamic Embeddings that explicitly model the relationship between a query and each document. These embeddings are then projected into a lower-dimensional space using UMAP and clustered with HDBSCAN, enabling multi-faceted and in-depth exploration of document collections. The proposed pipeline provides an effective exploratory environment in which users can actively control the scope of analysis through queries, thereby gaining deeper insights into the semantic organization of large-scale document collections.

12

다중순위패턴매칭 문제는 주어진 패턴 집합에 속한 패턴 중 하나와 일치하는 텍스트 내의 모든 부분문자열을 찾는 문제이다. 이 문제에 대한 연구는 금융, 기후, 환경 등 다양한 분야에서 측정된 시계열 데이터 분석에 응용될 수 있 다. 본 논문에서는 다중순위패턴매칭 문제를 해결하는 알고리즘들에서 사용되는 핵심 연산들을 순위통계트리, 스플 레이트리, 세그먼트트리, 해시테이블과 같은 다양한 자료구조를 사용하여 구현한 후. 여러 시계열 데이터에 대한 실 험을 통해 시계열 데이터의 특성에 따라 어떤 자료구조 기반의 구현이 가장 적합한지를 분석한다.

The multiple order-preserving pattern matching problem is to find all substrings in a text that match any of the patterns in a given set of patterns. Research on this problem can be applied to the analysis of time series data measured in various fields such as finance, climate, and the environment. In this paper, we implement the core operations used in algorithms that solve the multiple order-preserving pattern matching problem using various data structures such as orderstatistic trees, splay trees, segment trees, and hash tables. Furthermore, through experiments on various time series datasets, we analyze which data structure-based implementation is most appropriate depending on the characteristics of the time series data.

 
페이지 저장