원문정보
Indexing and Search of Mobile Lifelog Data
초록
영어
In this paper, we developed a system using four types of collected data, SMS(Short Message Service)/MMS (Multimedia Messaging Service), call log, internet history, image list from different kind of personal information. We arranged the data using calendar and timeline visualizations. And the images are semi-automatically indexed and search function is available to find similar images. Prior research focused on indexing through image processing, by analyzing situational information such as what kind of object is in the image or by analyzing the relationship with other data. Other prior research include indexing the location where the picture was taken. However, this method has to rely on EXIF (Exchangeable Image File Format) information from the picture when the GPS (Global Positioning System) is turned on. The downside is that most of the smartphone users usually turn off GPS to manage battery life making this method less attractive. To overcome this problem we introduce new way of automatic indexing method. It also enables search function to find similar image based on mobile lifelog data
한국어
본 논문에서는 스마트폰의 개인 정보들 에서 가장 빈번하게 생성되는 SMS(Short Message Service)/MMS (Multimedia Messaging Service), 통화 기록, 인터넷 기록, 사진 목록 등의 4가지 종류의 데이터를 수집하여, 캘린더와 타임라인 형태로 시각화하여 정리하고, 그 사진을 반자동으로 색인하고, 유사한 사진을 검색할 수 있는 시스템을 개발하다. 기존에는 상처리를 통해 사진 내에 어떤 사물이 있는지 혹은 사진과 다른 데이터들 간의 계를 통해 상황정보를 추론하여 그것을 색인하는 방법에 한 연구가 주로 이루어졌다. 한, 어디에서 촬한 사진 인지를 색인하는 연구들도 종종 있었다. 하지만, 치 정보는 GPS(Global Positioning System)가 활성화 되어 있는 상태에서 촬하여 얻을 수 있는 EXIF(Exchangeable Image File Format) 정보를 통해 산출하는 경우가 부분이다. 그러나 부분의 사람들은 스마트폰의 배터리 리를 해 GPS를 항상 활성화 시키지 않기 때문에 실성에 맞지 않는다는 단이 존재한다. 이러한 문제를 해결하기 해 새로운 이미지 자동 색인 방법을 제안한다. 그리고 모바일 라이로그 데이터의 특성에 맞는 유사한 이미지 검색이 가능하도록 하다.
목차
Abstract
1. Introduction
2. Related work
3. Mobile-Based Automatic Indexing and Visualization of Lifelog
3.1 Data Collection
3.2 Parsing of Payment Authorization Message
3.3 Data Visualization
3.4 Automatic Image Indexing
3.5 Similar Image Query
4. Experiment
5. Conclusions
Acknowledgement
References