Index


Figures


Tables

Park† and Lee††: Proactive Caching Strategy Based on Optimal Content Distribution in Content Centric Vehicular Networks

Sungjin Park† and Euisin Lee††

Proactive Caching Strategy Based on Optimal Content Distribution in Content Centric Vehicular Networks

Abstract: In vehicular communications environment, content pre-caching can reduce the delay time from the user to the content server. However, the problem of where and how much pre-caching is still not solved. In this paper, based on the movement probability of the vehicle, we propose a method for pre-caching by distributing the optimized amount of content to each base station candidate that the vehicle will move as follows. First, the movement probability of each vehicle was learned using Markov Model. And the amount of content to be distributed and pre-cached was optimized based on the wireless environment. In experiments based on NS-3, the proposed strategy maintained the least delay compared to the existing protocol, leading to the most traffic-saving results.

Keywords: VANETs , CCVN , RSU , Content Caching , Optimization

박 성 진†, 이 의 신††

차량 네트워크에서 최적의 컨텐츠 분배 기반의 사전 캐싱 방안

요 약: 차량 환경의 통신에서 콘텐츠의 사전 캐싱은 사용자로부터 콘텐츠 서버까지의 지연시간을 감소시킬 수 있다. 하지만 어디에, 어느 량 만큼의 사전 캐싱을 해야하는 지에 대한 문제점은 아직도 해결되지 않고 있다. 본 논문에서는 차량의 이동 확률을 토대로 차량이 다음으로 이동하게 될 기지국 후보들에게 각각 최적화된 량만큼의 콘텐츠를 분산시켜 사전 캐싱하는 방안을 제시한다. 우선, 각 차량의 이동 확률은 Markov Chain을 이용하여 학습되었다. 그리고 분산하여 사전 캐싱할 콘텐츠의 량은 무선 환경을 기반으로 최적화되었다. NS-3를 기반으로 진행된 실험에서 제안 방안은 기존 방안에 비하여 최소의 지연시간을 유지하며 트래픽을 가장 많이 절약한 결과가 도출되었다.

키워드: VANETs, CCVN, RSU, 컨텐츠 캐싱, 최적화

1. Introduction

2017년에서 2022년까지 4배로 증가하는 트래픽을 수용 하기 위해 차세대 통신에 대한 연구가 진행되고 있다. 그리고 해당 트래픽의 82%가 비디오 트래픽이 될 것이라 예측되고 있 다[1]. 특히, 차량 환경에서는 빠른 속도로 인해 토폴로지의 변 화가 잦고 무선 채널이 불안정하며 대역폭에 제한이 있다는 제 약 조건을 갖는다. 그렇기 때문에 대용량 콘텐츠 혹은 비디오 를 제공하는 데에 있어 품질 저하나 버퍼링 등의 문제를 야기 할 수 있다. 또한, 백홀 컴포넌트는 제한된 용량을 가지고 있 기 때문에 제한적인 차량과 서비스만을 제공해줄 수 있다.

차량 환경에서 콘텐츠를 제공함에 있어 이동성을 지원하기 위해 NDN(Named Data Network)을 사용하는 연구가 진 행되고 있다[2]. 기존 IP기반 통신은 콘텐츠에 대한 제공을 위해 항상 해당 콘텐츠를 가지고 있는 근원지 혹은 서버까지 접근하여 콘텐츠를 요구하였다. 하지만 NDN은 콘텐츠의 내 용 기반의 통신으로서 만일 주위에 필요한 콘텐츠를 가진 노 드가 있다면 서버까지 접근하지 않고도 주변 노드로 부터 콘 텐츠를 제공받을 수 있는 방안이다[3, 4]. 주로 Roadside Units(RSUs)의 도움을 받아 통신을 하며 NDN은 요청 패킷 과 데이터 패킷으로 구성되어 있다. 사용자가 콘텐츠를 요청 할 때 요청 패킷을 보낸다. 요청 패킷을 받은 노드는 자신의 Content Storage (CS)를 먼저 탐색하고 해당 콘텐츠를 가지 고 있다면 사용자에게 바로 전달해준다. 콘텐츠를 가지고 있 지 않다면 Pending Interest Table (PIT)에 요청 패킷을 저

장하고 Forwarding Information Base (FIB)를 통해 다른 RSU 또는 서버로부터 해당 콘텐츠를 받아온다. 서버로부터 콘텐츠를 가져온 노드는 해당 콘텐츠를 CS에 저장하고 PIT에 서 해당 요청 패킷을 삭제하며 사용자에게 해당 콘텐츠를 제 공한다. 하지만 FIB를 통해 요청된 콘텐츠를 가져오는 작업은 많은 지연시간을 소모한다. 매번 새로운 RSU에서 같은 작업 을 반복하는 사용자는 더 많은 지연시간을 가지게 된다. 또한 지연시간 때문에 사용자가 RSU에 머무르는 시간 동안 전달하 지 못한 나머지 콘텐츠를 계속해서 다음 RSU에서 추가로 받 아야하기 때문에 트래픽도 많이 낭비된다. 그렇기 때문에 해 당 지연 시간으로 인해 차량의 주행시간이나 콘텐츠가 받아져 야 하는 시간 내에 콘텐츠를 전부 제공받지 못할 수 있다.

따라서 FIB를 통해 요청 콘텐츠를 가져오는 지연시간을 줄 이기 위해 차량이 다음에 갈 RSU가 차량이 요청한 콘텐츠를 사전에 캐싱하는 방안이 연구되어왔다. 일반 이동성 환경과 는 달리 차량 환경의 이동성은 정해진 경로가 있기 때문에 예 측하기 쉽다. 그래서 차량이 다음으로 도착할 RSU는 차량이 요청한 콘텐츠를 자신의 CS에 사전 캐싱한다. [5]에서는 Entropy를 사용하여 차량의 이동 확률의 정확도를 측정하여 가장 이동할 확률이 높은 다음 RSU에 차량이 요청한 콘텐츠 를 준비시켜 딜레이를 최소화하였다. 하지만 차량의 이동성 예측은 완벽할 수 없기 때문에 차량이 해당 RSU로 가지 않았 을 때 차량은 지연시간에 대한 이점을 얻을 수 없다. 또한 차 량의 다음 경로로 예측되었던 RSU는 차량에게 준비된 콘텐 츠를 주지 못했으므로 결과적으로 트래픽을 낭비한 것이 된 다. 그리고 [6]에서는 차량이 RSU에 머무르는 시간을 고려하 여 받을 수 있는 량을 계산해내고 다음 RSU가 차량에게 전송 가능한 콘텐츠의 일부만 준비한다. 해당 방안을 이용하는 경 우 낭비되는 콘텐츠의 량은 줄어들지만 여전히 다른 경로의 RSU로 갔을 경우 FIB를 이용하여 요청된 콘텐츠를 가져오는 지연시간이 여전히 발생하였다.

본 논문에서는 차량이 다음으로 가게 될 RSU 후보에 대한 각 이동 확률을 이용하여 요청 콘텐츠를 각 후보에 분산시켜 사전 캐싱함으로서 트래픽 낭비를 최소화하는 방안을 제시한 다. 이동 확률에 대한 계산은 Markov를 통하여 학습 후 적용 시켰다. 그리고 차량이 가장 높은 이동 확률의 RSU에 가지 않더라도 분산되어 있는 다른 후보의 사전 캐싱된 콘텐츠를 가져와 지연시간이 최소가 되도록 하였다.

2. Problem Statement and Network Model

2.1 Problem Statement

기존 연구[7]는 차량의 이동성 인식을 통한 분산 컨텐츠 캐 싱을 통하여 백홀 트래픽과 다운로드 지연 시간을 줄였다. 차 량이 이동할 가능성이 있는 모든 RSU에 차량의 이동 확률에 비례하여 컨텐츠 조각을 캐싱한다. 하지만, 차량의 이동 확률 에 비례하여 컨텐츠를 분산 캐싱했기 때문에 여러 가지 문제 가 발생할 가능성이 있다. 예를 들어, 차량이 어떤 RSU로 이 동할 확률이 매우 높은 경우, 해당 RSU로 갈 가능성이 매우 높지만, 컨텐츠를 분산하여 캐싱했기 때문에 이웃 RSU로부 터 백홀을 통해 컨텐츠를 받아와야한다. 이러한 경우, 이웃 RSU로부터 백홀 링크를 통해 컨텐츠 조각을 받아와야 하므 로, 추가적인 백홀 트래픽이 발생하게 된다. 이러한 추가적인 백홀 트래픽 발생 문제를 해결하기 위해 이동 확률을 통한 컨 텐츠 조각 분배를 최적화 하여 백홀 트래픽을 최소로 줄이는 방안을 제안한다.

Fig. 1.

Network Model of Proposed Strategy
1.png
2.2 Network Model of Proposed Mechanism

제안 방안은 차량이 교차로에서 각 방향으로 전환할 확률 을 토대로 해당 방향의 RSU에 사전 캐싱할 콘텐츠의 량을 계 산한다. 우선, 차량의 이동 기록을 기반으로 Markov 모델을 이용하여 차량의 이동 확률을 계산하였다. Markov 모델은 차량이 해당 도로로 진입한 횟수에 대비하여 해당도로로부터 특정 방향으로 방향을 전환한 횟수를 기록하는 누적 기록 방 안이다. 그렇기 때문에 학습 시간이 길어질수록 더욱 정확한 확률을 얻을 수 있다. Fig. 1은 제안방안의 네트워크 모델이 다. 차량은 802.11p를 사용하여 RSU와 통신하고, RSU는 백홀 링크를 통해 컨텐츠 서버와 연결된다. 또한, 각 RSU는 백홀 링크를 통해 이웃 RSU와 통신이 가능하다고 가정한다. 또한, 각 차량의 이동 확률은 Markov Model[8]을 이용하여 학습되었다.

차량은 특정 콘텐츠를 RSU에게 요구한 경우에 현재 머무 르고 있는 RSUi 로부터 xi 만큼의 컨텐츠를 받을 수 있다고 계산되어 진다. 하지만 차량이 요구한 콘텐츠의 량 xreq와 비 교하여 xi가 적은 경우 현재 머무르고 있는 RSUi에서 차량에 게 해당 콘텐츠를 전부 제공할 수 없다고 판단하며 사전 캐싱 을 준비한다. 사전 캐싱은 현재 머무르고 있는 RSUi로부터 이동 가능한 다음 RSU의 개수 J를 아는 것으로부터 시작되어 진다. 이때, 현재 있는 RSUi로부터 이동 가능한 J개의 RSU 중에 j번째 RSU로 갈 확률은 pij로 정의한다. 이때 j의 순서는 확률의 크기를 이용하며 가장 큰 확률 값을 가진 값이 가장 높은 우선순위를 가지게 되어 [TeX:] $$\mathrm{p}_{\mathrm{i} 1}$$ 이 된다. 확률 [TeX:] $$\mathrm{p}_{\mathrm{ij}}$$ 를 이용하여 최적화를 통해 얻어진 사전 캐싱할 콘텐츠의 량은 [TeX:] $$\mathrm{X}_{\mathrm{ij}}$$ 이며 현재 차량이 머무르고 있는 [TeX:] $$\mathrm{RSU}_{\mathrm{i}}$$ 로부터 [TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$에 사전 캐싱할 량이다. [TeX:] $$X_{i j}$$[TeX:] $$\mathrm{X}_{\mathrm{req}}$$ 중에서 서로 다른 부분의 콘텐츠를 나눠서 가지게 된다. 때문에 차량이 특정 [TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$로 진입하여 [TeX:] $$\mathrm{X}_{\mathrm{ij}}$$를 이어서 제공받을 때 RSUj는 xij를 차량에게 제공하는 동안 [TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$ 를 제외한 다른 RSU에 사전에 캐싱한 다른 콘텐츠 조각 [TeX:] $$x_{j k}(k: 1 \sim J, k \neq j)$$ 를 가져오게 된다. 이를 통하여 [TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$[TeX:] $$\mathrm{X}_{\mathrm{ij}}$$를 전부 제공한 순간 다른 RSU로부터 가져온 [TeX:] $$x_{i} k$$를 이어서 차량에게 제공할 수 있게 된다. 따라서 지연 시간을 최소화하며 다시 백본이나 FIB, 또는 콘텐츠 서버로부터 콘텐츠를 가져오 지 않게 되어 트래픽 또한 최소가 된다.

계산의 용이성을 위하여 차량과 RSU간의 무선 특징은 모 두 같다고 가정하며 무선 통신 속도는 r이라고 하였다. 또한 RSU간의 연결 또는 RSU와 백본간의 연결도 유선 특징을 모 두 같다고 가정하였으며 유선 통신 속도는 w라고 하였다. 그 리고 차량의 RSU 잔류시간 [TeX:] $${t}_{dwell}$$ 은 차량의 현재속도를 기반 으로 RSU의 통신 범위를 이용하여 계산되었다. Table 1은 제안 방안에서 캐싱에 사용되는 파라미터를 나타낸다.

Table 1.

Caching Parameters
Notation Description
[TeX:] $$\mathrm{RSU}_{\mathrm{i}}$$ Current RSU
[TeX:] $$\mathbf{X}_{\mathbf{i}}$$ Amount of content received from [TeX:] $$\mathrm{RSU}_{i}$$
[TeX:] $$\mathrm{X}_{\mathrm{req}}$$ Amount of content requested by the vehicle
[TeX:] $$\mathrm{p}_{\mathrm{ij}}$$ Transition Probability
J Next RSU that can be moved from [TeX:] $$\mathrm{RSU}_{i}$$
[TeX:] $$\mathrm{X}_{\mathrm{ij}}$$ Amount of pre-caching in [TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$
[TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$ Next RSU
[TeX:] $$\mathrm{X}_{\mathrm{jk}}$$ Amount of pre-cached to adjacent RSUs
r V2V data Transmission rate
w V2I data Transmission rate
[TeX:] $${t}_{dwell}$$ Dwell Time

3. Proposed Mechanism

논문은 사거리에서 차량의 이동방향에 대한 확률을 가 지고 최적화를 진행하여 유선 트래픽을 최소화하는 방안이 다. 우선, 차량의 이동 확률을 기반으로 하여 유선 트래픽을 최소화하는 방향으로 사전 캐싱할 량을 최적화하였다. 그리 고 차량이 다음으로 진입한 RSU는 최적화된 사전 캐싱된 콘 텐츠를 차량에게 전달하는 동안 다른 사전 캐싱된 RSU로부 터 콘텐츠를 가져와 차량에게 최대량의 콘텐츠를 제공한다.

우선 차량이 머무르고 있는 RSUi 로부터 다음으로 이동 가 능한 RSU의 후보를 알 수 있다. 따라서 pij를 이용하여 각 방 향으로 차량이 이동하였을 때 소모되는 트래픽을 Equation (1)을 통하여 계산할 수 있다. 이를 이용하여 차량이 소모할 기대 트래픽 량을 계산할 수 있으며 트래픽 량을 최소화하기 위해서는 해당 식이 목적식이 된다.

(1)
[TeX:] $$\min U=\sum_{j=1}^{J}\left(p_{i j} \times\left(\left(\sum_{k=1}^{J} 2 x_{i k}\right)-x_{i j}\right)\right)$$

(2)
[TeX:] $$\text {s.t. }-\frac{1}{r} x_{i j}+\sum_{k=1 \atop k \neq j}^{J} \frac{1}{w} x_{i k} \leq 0, \forall j \in J$$

(3)
[TeX:] $$-x_{i k}+x_{i(k+1)} \leq 0, k>1$$

(4)
[TeX:] $$\sum_{j=1}^{J} x_{i j}=t_{d w e l l} \times r$$

(5)
[TeX:] $$\forall x_{i j}>0$$

Equation (2)는 차량이 이동한 [TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$ RSUj에 사전 캐싱된 콘텐 츠의 량 [TeX:] $$X_{i j}$$를 차량에게 제공하는 동안[TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$가 유선으로 연결 된 다른 후보 RSU로부터 사전 캐싱된 콘텐츠를 가져오도록 하는 조건식이다.[TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$가 사전 캐싱된 콘텐츠의 량 [TeX:] $$X_{i j}$$를 차량에게 제공하기 전에 나머지 콘텐츠를 가져와야 [TeX:] $$X_{i j}$$를 제공한 후에 바로 이어서 나머지 콘텐츠를 제공할 수 있기 때문이 다. 만일 해당 조건식을 사용하지 않는다면 차량은[TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$ 로부터 사전 캐싱된 콘텐츠를 제공받고[TeX:] $$\mathrm{RSU}_{\mathrm{j}}$$가 다른 RSU로부터 나머지 콘텐츠를 가져오는 동안 아무것도 제공받지 못하는 상황이 발생할 수 있으며 이는 곧 지연 시간로 이어진다.

Equation (3)은 확률의 크기로 정렬된 [TeX:] $$\mathrm{p}_{\mathrm{ij}}$$를 기반으로 높 은 확률을 가진 RSU가 더 많은 량을 사전 캐싱해야 한다는 조건식이다. 이동 확률이 적은 곳에 많은 량의 사전 캐싱을 할 경우 차량이 해당 RSU로 갈 확률이 적기 때문에 다른 RSU가 해당 RSU로부터 콘텐츠를 가져가야하는 상황이 더 빈번히 발생하게 된다. 따라서 유선 트래픽이 증가하게 되기 때문에 조건식을 두었다. 이때 확률이 충분히 적은 RSU에는 사전 캐싱되는 콘텐츠의 량이 매우 적어질 수 있다. 심지어 차 량은 일정 확률로 해당 RSU로 진입할 가능성이 있기 때문에 이 경우에 다른 RSU로부터 나머지 콘텐츠를 가져오기 위해 트래픽이 증가할 수 있다. 하지만 해당 확률이 낮기 때문에 기 대 트래픽 량 관점에서 보면 갈 확률이 높은 곳에 많은 량의 콘텐츠를 사전 캐싱해야 유선 트래픽을 낮출 수 있다. 또한, 확률이 충분히 적은 RSU로 이동하게 되어도 Equation (2)의 제약 조건 때문에 차량에게 최대량의 콘텐츠를 제공하는 데 에는 차질이 없다.

Equation (4)는 차량의 현재속도를 기반으로 RSU의 통신 범위내에서 RSU로부터 차량이 받을 수 있는 최대 콘텐츠 량 을 계산한 식이다. 사전 캐싱한 콘텐츠의 모든 량은 차량에게 제공 가능한 량을 넘길 필요가 없다. 모든 RSU에 차량이 요 구한 콘텐츠를 많이 사전 캐싱할 경우 더 많은 유선 트래픽이 소모된다. 심지어 제공 가능한 량 이상의 콘텐츠를 사전 캐싱 하더라도 차량은 준비된 콘텐츠를 다 받지 못하여 RSU가 콘 텐츠를 사전 캐싱하기 위해 소모한 트래픽 중에서 차량에게 제공하지 못한 트래픽만큼 낭비된 트래픽이 된다. 따라서 제 공 가능한 량 이상의 콘텐츠를 사전 캐싱할 필요는 없다.

Fig. 2.

Simulation Result
2.png

이러한 최적화를 진행하였을 때 유선 트래픽의 최소화를 위 하여 사전 캐싱할 량이 음수가 될 수 있기 때문에 Equation (5)를 통하여 사전 캐싱할 량을 양수로 제한하였다. 따라서 주어진 최적화식을 통해 각 RSU에서 차량에게 최대량의 콘 텐츠를 낭비되는 트래픽이 없이 최소의 트래픽을 소모하여 제공할 수 있다.

4. Performance Evaluation

4.1 Simulation Environment

본 절에서는 제안하는 최적화 기법의 성능을 기존의 MDPC 라고 하는 이동성 인식 분산 사전 캐싱방안과 비교한다. 시뮬 레이션을 위해 4대의 RSU가[TeX:] $$1 \times 1 \mathrm{km}^{2}$$ 안에 배치되어 있다. 또 한, 같은 공간 안에 한 대의 차량이 일정한 속도로 움직인다. Table 2는 시뮬레이션 파라미터를 보여준다. 컨텐츠 서버는 백홀 네트워크로 연결되어 있고 백홀 링크의 통신 용량은 1000Mbps이다. RSU와 차량의 통신은 IEEE 802.11p[9] 표 준을 사용하고 통신 용량은 50Mbps이다. RSU와 RSU간 통 신은 P2P를 사용하고, 통신 용량은 1000Mbps이다. RSU와 통신 범위는 200m이고, RSU 간 전송지연 시간은 10ms이 다. 본 시뮬레이션은 NS-3.2.7[10]에서 진행되었다. 제안방 안과 MDPC의 다운로드 지연시간과 백홀 트래픽을 비교하여 제안방안의 성능을 검증한다. 또한, 차량의 이동 확률은 NS-3의 랜덤 함수를 통해 분포시켰고, 차량은 사거리에서 자신이 가진 이동 확률에 따라 각 가장자리에 있는 RSU로 이 동한다. 약 1000번 이상의 시뮬레이션을 통해 나온 결과 값 으로 평균을 내어 결과 값을 도출하였다.

Table 2.

Simulation Parameter
Parameter Values
Simulator NS-3
Network Area 1km × 1km
P2P data transmission rate 1000Mbps
V2I data transmission rate 50Mbps
Communication range of RSU 200m
Transmission delay among RSU 10ms
4.2 Simulation Results for Backhual Taffic

Fig. 2(a)은 MDPC와 최적화 방안의 백홀 트래픽을 비교 한 결과이다. 컨텐츠 서버로부터 다운로드 받을 컨텐츠의 크 기를 10000bit부터 2500bit씩 증가시켜 25000bit까지 증 가시켜 시뮬레이션을 진행했다. 백홀 트래픽은 백홀 링크를 통해 연결되어 있는 인접 RSU로부터 컨텐츠를 요청하고, 인 접 RSU로부터 컨텐츠를 전송받을 때 발생한다. 제안 방안은 최적화를 통해 인접 RSU로부터 요청하는 컨텐츠를 백홀 트 래픽이 최소가 되도록 분배한다. 따라서, 제안 방안은 MDPC 보다 더 적은 트래픽을 소모하게 된다.

4.3 Simulation Results for Delay Time

Fig. 2(b)은 MDPC와 최적화 방안의 다운로드 지연시간을 비교한 결과이다. 컨텐츠 서버로부터 다운로드 받을 컨텐츠 의 크기를 10000bit부터 2500bit씩 증가시켜 25000bit까 지 증가시켜 시뮬레이션을 진행했다. 다운로드 지연시간은 차량이 요청을 보낸 컨텐츠의 전체를 다운로드 받는데 까지 걸리는 시간이라고 정의한다. 시뮬레이션을 통해 MDPC보다 제안방안의 다운로드 지연 시간이 더 짧다는 것을 알 수 있 다. 다운로드 지연시간은 차량이 컨텐츠를 요청한 RSU의 인 접 RSU로부터 컨텐츠를 전송받을 때 전송받는 시간만큼 길 어지게 된다. 백홀 트래픽을 최소화 시키는 방향으로 최적화 를 진행하였기 때문에, 백홀 트래픽이 최소가 되도록 컨텐츠 를 분배했다. 그러므로 백홀 트래픽이 최소가 되는 컨텐츠 분 배를 통해 다운로드 지연시간을 줄일 수 있다.

4.4 Simulation Results for Entropy

Fig. 2(c)은 MDPC와 제안 방안의 Entropy 값에 따른 백 홀 트래픽을 나타낸다. Entropy는 확률의 불확실성을 측정 하는 지표로 1948년 섀넌의 논문[11]에서 처음 도입되었다. 확률의 분포가 [TeX:] $$p=\left\{p_{1}, p_{2}, \ldots, p_{n}\right\}$$ 이고, [TeX:] $$p_{i} \geq 0, \quad \sum_{i=1}^{n} p_{i}=1,$$ 일때, Entropy는 아래 Equation (6)과 같이 나타낼 수 있다.

(6)
[TeX:] $$H=\sum p_{i} \log _{2} p_{i}$$

Fig. 2(d)는 Entropy 값에 따른 차량의 이동 성공 확률을 나타낸 그래프이다. 차량의 이동 성공 확률은 차량이 가장 높 은 확률을 가진 RSU로 이동하였을 때를 성공, 그렇지 않은 경우를 실패로 두고 성공과 실패의 비를 계산했다.

Entropy 값이 높아질수록 이동 성공 확률이 낮아진다. 따 라서 이동 성공 확률이 약 90%인 Entropy 0.5에서부터 제 안 방안의 백홀 트래픽은 MDPC의 백홀 트래픽과 비슷해지 며 Entropy가 커질수록 제안 방안의 백홀 트래픽이 MDPC 보다 더 낮게된다. 이동 성공 확률이 높은 경우 MDPC는 이 동 확률에 비례하여 컨텐츠를 캐싱했기 때문에 제안 방안보 다 백홀 트래픽이 낮다. 제안 방안은 Entropy 값을 제약 조 건으로 두지 않았기 때문에 이동 성공 확률이 높은 경우에 백 홀 트래픽이 높게 된다.

5. Conclusion

본 논문에서는, 차량 네트워크 환경에서 백홀 트래픽을 최 소화시키기 위해 최적화를 통한 이동성 인식 분산 사전 캐싱 을 제안하였다. 또한 제안된 방안의 검증을 위해 NS-3 시뮬 레이터를 사용하였다. 기존 방안에서 발생하는 백홀 트래픽 을 효율적으로 줄일 수 있는 최적화 방안 설계와 다운로드 지 연시간, 백홀 트래픽, Entropy 결과를 제시하였다. 시뮬레이 션을 통해 최적화 방안의 성능 검증을 했지만, Entropy 값을 제약조건에 포함하지 않아 발생하는 추가적인 트래픽을 고려 하기 위해 Entropy를 제약조건에 추가시킨 연구를 진행할 계획이다.

Biography

박 성 진

https://orcid.org/0000-0003-3206-8539

e-mail : sjp@chungbuk.ac.kr

2020년 충북대학교 전파통신공학과 석사

관심분야 : 차량 네트워크, 컨텐츠 캐싱

Biography

이 의 신

https://orcid.org/0000-0002-0422-0647

e-mail : eslee@chungbuk.ac.kr

2008년 충남대학교 컴퓨터공학과(석사)

2012년 충남대학교 컴퓨터공학과(박사)

2014년~현 재 충북대학교 정보통신공학부 교수

관심분야 : 무선 센서 네트워크, 차량 네트워크, 클라우드 컴퓨팅, 컨텐츠 캐싱

References

  • 1 Cisco, Visual Networking Index: Forecast and Methodology, 2013-2018, Jun. 2014, White Paper. (Online). Available:, http://www.cisco.com/go/vni
  • 2 Y. Rao, H. Zhou, D. Gao, H. Luo, Y. Liu, "Proactive caching for enhancing user-side mobility support in named data networking," in Proc. Int. Conf. Innov. Mobile Internet Services Ubiquitous Comput.Jul, pp. 37-42, 2013.custom:[[[-]]]
  • 3 V. Jacobson, D. K. Smetters, J. D. Thornton, M. F. Plass, N. H. Briggs, R. L. Braynard, "Networking named content," Proc. ACM CoNEXT 2009Rome, Italy, Dec, 2009.doi:[[[10.1145/2063176.2063204]]]
  • 4 M. Ohtani, K. Tsukamoto, Y. Koizumi, H. Ohsaki, M. Imase, K. Hato, J. Murayama, "VCCN: Virtual content-centric networking for realizing group-based communication," Proc. IEEE ICC 2013Budapest, Hungary, Jun, pp. 3476-3480, 2013.custom:[[[-]]]
  • 5 N. Abani, T. Braun, M. Gerla, "Proactive caching with mobility prediction under uncertainty in information- centric networks," in Proc. of the 4th ACM Conference on Information-Centric Networking (ICN 2017), , Sep, 2017;pp. 88-97. custom:[[[-]]]
  • 6 H. Khelifi, S. Luo, B. Nour, A. Sellami, H. Moungla, F. Nalt-Abdesselam, "An optimized proactive caching scheme based on mobility prediction for vehicular networks," in IEEE Global Communications Conference, 2018;pp. 1-6. custom:[[[-]]]
  • 7 S. Park, S. Oh, Y. Nam, J. Bang, E. Lee, "Mobility-aware distributed proactive caching in content-centric vehicular networks," in 2019 12th IFIP Wireless and Mobile Networking Conference (WMNC), Paris, France, 2019;pp. 175-180. custom:[[[-]]]
  • 8 S. Gambs, M.-O. Killijian, M. N. del Prado Cortez, "Next place prediction using mobility markov chains," Proc. of the 1st ACM Workshop on Measurement Privacy and Mobility, pp. 1-6, Apr, 2012.custom:[[[-]]]
  • 9 "IEEE Std," IEEE standard for information technology– local and metropolitan area networks – Specific requirements– Part 11: Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) Specifications Amendment 6: Wireless Access in Vehicular Environments, pp. 1-51, 2010.custom:[[[-]]]
  • 10 NS-3 (Online). Available:, http://www.nsnam.org
  • 11 C. E. Shannon, "A Mathematical Theory of Communication," The Bell System Technical JournalJul, vol. 27, no. 3, pp. 379-423, 1948.custom:[[[-]]]

Statistics


Related Articles

부채널 분석 대응을 위한 1차 마스킹 AES 알고리즘 최적화 구현.
K. K. Ho and S. H. Jeong
빅데이터 분석을 활용한 실험계획법 기반의 코팅제 배합비율 최적화 모형
S. Y. Noh and Y. J. Kim
아파치 스파크 활용 극대화를 위한 성능 최적화 기법
R. Myung, H. Yu, S. Choi
모바일 어플리케이션을 위한 에너지-인식 달빅 바이트코드리스트 스케줄링 기술
K. K. Man
군집 로봇의 임무 검증 지원을 위한 디지털 트윈 기반 통신 최적화 기법
G. Kim, H. Kim, J. Kwon, B. Ha, S. H. Huh, J. H. Koo, H. J. Sohn, W. Kim
32-bit RISC-V상에서의 PIPO 경량 블록암호 최적화 구현
E. S. Woo, J. K. Bae, S. G. Ju, L. M. Woo, S. H. Jeong
소프트웨어 정의 스토리지의 디스크 이용을 최적화하는 방법에 관한 연구
L. J. Il, C. YoonA, P. J. Eun, J. Minyoung
모바일 시스템에서 사용자 반응성을 고려한 입출력 스케줄링 기법
J. W. Park, J. Y. Yoon, D. Seo
차량 네트워크에서 RSU를 이용한 리소스 검색 및 클라우드 구축 방안
Y. Lee and E. Lee†
PDF 버전 1.4-1.6의 CUDA GPU 환경에서 암호 해독 최적 구현
H. J. Kim, S. W. Eum, H. J. Seo

Cite this article

IEEE Style
S. Park and E. Lee, "Proactive Caching Strategy Based on Optimal Content Distribution in Content Centric Vehicular Networks," KIPS Transactions on Computer and Communication Systems, vol. 9, no. 6, pp. 131-136, 2020. DOI: 10.3745/KTCCS.2020.9.6.131.


ACM Style
Sungjin Park and Euisin Lee. 2020. Proactive Caching Strategy Based on Optimal Content Distribution in Content Centric Vehicular Networks. KIPS Transactions on Computer and Communication Systems, 9, 6, (2020), 131-136. DOI: 10.3745/KTCCS.2020.9.6.131.