Earticle

현재 위치 Home

TSBS 벤치마크를 활용한 시계열 데이터베이스 성능 분석
Performance Evaluation of Time Series Databases Using the TSBS Benchmark

첫 페이지 보기
  • 발행기관
    한국차세대컴퓨팅학회 바로가기
  • 간행물
    한국차세대컴퓨팅학회 논문지 KCI 등재 바로가기
  • 통권
    Vol.21 No.6 (2025.12)바로가기
  • 페이지
    pp.136-144
  • 저자
    동하오밍, 나연묵
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A478548

원문정보

초록

영어
This paper addresses the growing need for comparative performance analysis of time series databases as the volume of time series data rapidly increases due to the expansion of the Internet of Things (IoT) and real-time analytics environments. The performance of three representative time series databases, such as InfluxDB, TimescaleDB, and QuestDB, was compared using the Time Series Benchmark Suite (TSBS) under identical experimental conditions. Write performance, measured by average processing time and metrics per second, and query performance across five query types (Simple Rollups, Double Rollups, Aggregates, Thresholds, and Complex Queries) were evaluated at four data set scales (40/60/80/100 devices × 10 metrics, sampled every 10 seconds over 10 days). The experimental results show that TimescaleDB exhibits the best performance in large-scale data and complex query environments, while QuestDB demonstrates stable performance in medium-scale data environments. InfluxDB maintains relatively stable performance for simple queries, but performance degradation is observed as data volume increases. This paper analyzes performance differences among time series databases according to data set scales and query complexity and our experimental results can be utilized as a criteria to select time series databases.
한국어
사물인터넷(IoT)과 실시간 분석 환경의 확산으로 시계열 데이터의 생성량이 급격히 증가함에 따라, 시계열 데이터 베이스의 성능 특성을 비교·분석할 필요성이 커지고 있다. 본 논문은 대표적인 시계열 데이터베이스인 InfluxDB, TimescaleDB, QuestDB를 대상으로 TSBS(Time Series Benchmark Suite)를 활용하여 동일한 실험 환경에 서 성능을 비교하였다. 네 가지 데이터 규모(40/60/80/100 devices × 10 metrics, 10초 간격, 10일)에 대해 데 이터 쓰기 성능(평균 처리 시간, metrics/sec)과 다섯 가지 질의 유형(Simple Rollups, Double Rollups, Aggregates, Thresholds, Complex Queries)에 따른 질의 성능을 평가하였다. 실험 결과, TimescaleDB는 대 규모 데이터 및 복잡 질의 환경에서 가장 우수한 성능을 보였으며, QuestDB는 중간 규모 데이터 환경에서 안정적 인 성능을 나타냈다. InfluxDB는 단순 질의에서는 비교적 안정적인 성능을 유지하였으나, 데이터 규모가 증가할수 록 성능 저하가 관찰되었다. 본 논문에서는 데이터 규모와 질의 복잡도에 따른 시계열 데이터베이스의 성능 차이를 분석하였고, 이러한 실험 결과를 시계열 데이터베이스의 선택을 위한 기준 자료로 활용할 수 있을 것으로 보인다.

목차

요약
Abstract
1. 서론
2. 시계열 데이터베이스 관련 연구
2.1 시계열 데이터베이스
2.2 InfluxDB
2.3 TimescaleDB
2.4 QuestDB
2.5 시계열 벤치마크
3. 시계열 데이터베이스 성능 실험
3.1 실험 환경
3.2 실험 방법
3.3 데이터 쓰기 성능 측정 실험
3.4 주요 질의 유형에 따른 성능 분석
4. 결론
Acknowledgement
참고문헌

키워드

시계열 데이터베이스 성능 분석 InfluxDB TimescaleDB QuestDB Time Series Database Performance Analysis InfluxDB TimescaleDB QuestDB

저자

  • 동하오밍 [ HAOMING TONG | 단국대학교 대학원 컴퓨터학과, 컴퓨터공학과 ]
  • 나연묵 [ Yunmook Nah | 단국대학교 대학원 컴퓨터학과, 컴퓨터공학과 ] 교신저자

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국차세대컴퓨팅학회 [Korean Institute of Next Generation Computing]
  • 설립연도
    2005
  • 분야
    공학>컴퓨터학
  • 소개
    본 학회는 차세대 PC 및 그 관련분야의 학술활동을 통하여 차세대 PC의 학문 및 기술발전을 도모하고 산업발전 및 국제협력 증진을 목적으로 한다.

간행물

  • 간행물명
    한국차세대컴퓨팅학회 논문지 [THE JOURNAL OF KOREAN INSTITUTE OF NEXT GENERATION COMPUTING]
  • 간기
    격월간
  • pISSN
    1975-681X
  • 수록기간
    2005~2026
  • 등재여부
    KCI 등재
  • 십진분류
    KDC 566 DDC 004

이 권호 내 다른 논문 / 한국차세대컴퓨팅학회 논문지 Vol.21 No.6

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장