안녕하세요. 간만에 올리는 동영상 연구소의 글입니다!


지난번에 포스팅했던 글은 대화형 인공지능 서비스관련인데요. 


이번엔 인공지능으로 인해 개발 및 연구가 가속화 되고 있는 자율 주행에 대해 간단한 설명을 하고자 합니다.


우선, 자율 주행이란, 다들 아시다시피 자동차가 스스로 운전을 한다고 생각하면 쉬운데요. 


이 기술이 발전이 되면 운전하지 않고 쉽게 목적지에 갈 수가 있는거죠.


예를 들면, 술먹고 집에 편하게 들어갈 수 있는...??


조금 자율 주행에 대해 간략하면서도 깊게 설명을 드리자면, 자율 주행에도 단계가 있습니다. (자동차에 관심이 없으면 지겨울지도...)




총 5 단계로, 0 단계는 완전히 운전자의해 제어되는 단계로 일반적인 차량이라고 보면됩니다. 


1단계는 일반적인 운전과 비슷하지만 자동차 내부적으로 속도와 같은 기능을 자동으로 조절하는 단계입니다. 

 

2단계는 부분적으로 자동운전이 가능한 단계인데요. 앞차와의 간격을 유지하면서 주행하거나 차선을 인식하는 정도 입니다. 대표적인 예로는 크루즈 기능이 있습니다.


3단계는 조건적 자율 주행으로 일정 구간을 자율주행하는 단계입니다. 테슬라의 Autopilot 라는 기능이 이 단계에 속합니다.


다음 4단계는 고도화된 자율 주행으로 특정 도로에서 모든 안전제어가 가능한 단계입니다. 현재 구글 카에 이 단계에 있다고 봅니다.


마지막으로 5단계는 운전자 없이도 운행 할수 있는 완전 자율주행으로 목적지까지 알아서 주행하는 단계입니다. 현재 구글과 애플이 연구하고 있다고 합니다.


조금 어려웠지만, 자율 주행에 있어서 위와 같은 단계가 있고, 현재 상용화로 진행하고 있는 단계는 4단계 정도입니다. 


4단계에서 5단계로 넘어가는 데에 가장 큰 기여를 하는 것이 바로 인공지능입니다! 


그렇기에 구글이나 애플에선 사용자들의 데이터를 수집하여 인공지능 학습에 지속적인 연구 및 개발을 하고 있는거죠.


인텔과 Nvidia 또한 이 사업에 투자를 많이 하고 있다고 합니다.


IT 회사 이외에도 자동차 업계 또한 지속적인 연구를 하고 있습니다. 대표적인 회사로는 테슬라, 벤츠 등이 있습니다.


이쯤에서 잠시 자율주행에 대한 영상하나를 보여드리겠습니다.





자율 주행이 완전히 개발이 된다면, 사람들에게 편하지만 항상 문제는 돌발상황에 대한 대처라고 합니다.


현재 기술로는 돌발상황에 대한 대처가 힘들기에 모든 회사들이 연구를 꾸준히 하는거죠.


실제로 테스트 중에도 돌발사고로 위험한 상황이 발생하기도 합니다.


그렇지만, 인공지능 분야가 더 발전한다면 사고 또한 줄어들겠죠? ㅎㅎ


그리고 자율 주행이 발전하게 되면 자동차 뿐만 아니라, 다른 곳에도 사용이 가능하다고 봅니다. 


바로 요즘 많이 보이는 드론입니다!!



드론이 자율 주행을 하면 목적지까지 안전하게 잘 갈 수 있기에 새로운 산업이 생긴다고 생각됩니다.


택배나 음식 배달이 편리해지지 않을까요? (치킨....)


실제로 한달 전쯤 자율주행 드론으로 배달을 한 기사가 있었답니다.


http://biz.chosun.com/site/data/html_dir/2016/11/20/2016112000355.html


이외에도 다른 컨텐츠에도 적용을 하면 위 기사와 같이 좋은 효과를 낼 수 있다고 봅니다.


개인적인 생각으로 방송이나 게임에도 이와같은 기능을 이용한다면...?!


나름 열린 결말(?)을 두고 이만 마무리 하겠습니다.


그럼 다들 즐거운 연말되세요~!









저작자 표시 변경 금지
신고
Posted by 사람이 전부다




안녕하세요. 오늘은 인공지능과의 대화와 관련한 이야기를 하고자 합니다.


알파고 이후로 인공지능에 대한 사람들의 관심이 많아졌는데요


이와 관련하여 최근에 기계와 대화를 하는 서비스에 대해 소개를 드리려고 합니다.






알파고 이전부터 인공지능 대화 서비스는 계속 우리 곁에 있었는데요


대표적인 것이 애플(Apple)시리(Siri)라고 볼 수 있습니다


비슷한 서비스로 구글(Google)나우(Now), 네이버라온, 삼성S-Voice가 있습니다.






    


Apple 사의 Siri(왼쪽)GoogleNow(오른쪽)








인공지능 대화 서비스는 자연어처리를 기반으로 문장을 분석하여 컴퓨터가 의미를 파악하고 서비스를 제공하는데요


여기서 자연어처리(Natural Language Processing) 인간이 발화하는 언어 현상을 기계적으로 분석해서 


컴퓨터가 이해할 수 있는 형태로 만드는 자연언어 이해 혹은 그러한 형태를 다시 인간이 이해할 수 있는 언어로 표현하는 제반 기

입니다.




자연어 처리 이용과정 (출처 : http://blog.diquest.com/216)






언어를 이해하는 가장 기본적인 분석이 형태소 분석이고, 


형태소 분석은 어절에 대한 단어를 형태소 단위로 분해를 하여, 


모든 가능한 분석결과를 출력하는 것입니다.


한국어를 예를 들면, "나는" 이라는 어절이 형태소 분석에 의해서 


"나(대명사)+는(조사)""날(동사로 '날다'의 의미)+는(관형형 어미)" 이렇게 두 가지의 의미로 분석이 됩니다.


형태소 분석 이후에, 품사 태깅과 구문 분석 등 과 같은 방법에 의해서 최종적으로 어떤 의미로 사용되는지 결정을 합니다.


너무 전문적인 분야로 가는 것 같아서 다른 분석 방법에 대해선 생략하겠습니다....








참고로, 인공지능 대화형 엔진이 최초로 나온건 1960년대에 MIT 에서 개발한 ELIZA 입니다.


관련 링크는 아래에 있습니다. 혹시, 관심이 있으시면 클릭! (한국어가 아니라서 죄송합니다...)


https://en.wikipedia.org/wiki/ELIZA









그리고 최근 모바일이 아닌 로봇형식으로 대화형 AI 서비스가 나오고 있는데요. 


아마존(Amazon)에코(ECO)가 대표적이죠. 


아마존의 에코는 사람과 대화를 해서 필요한 정보를 주고, 


또한 IoT 기술로 다른 웨어러블 장치들과의 연동을 하며 작동을 시키는 작업을 합니다.


구글에서도 구글 홈(Google Home)이라는 기기를 최근에 선보였습니다. 


현재는 아직 데모버전이지만, 올해 안에 출시될 예정이라고 하네요.





        


Amazon 사의 ECO(왼쪽) Google 사의 Google Home(오른쪽)








국내에서도 위와 비슷한 서비스가 출시되었는데, SK Telecom누구(NUGU)라는 기기입니다.





SK Telecom 사의 NUGU





대화형 서비스는 아직은 좀 더 개선되고 추가적으로 개발해야될 부분이 많기는 하지만


어느정도 성능이 개선되어 사람과 자연스러운 소통을 하게 된다면 


분명 현 시대의 생활방식을 변화시키는 큰 역할을 할 수 있지 않을까하는 생각이 듭니다.





최근에 나온 재밌는 기사로 아마존 사의 에코가 기능이 추가되면서 잔소리를 한다는 기사가 있네요


링크 올리면서 마무리 하겠습니다.


http://www.asiae.co.kr/news/view.htm?idxno=2016090907431675985


 감사합니다.


저작자 표시 변경 금지
신고
Posted by 사람이 전부다


오늘은 VR과 AR에 대해 간단하게 알아보려 해요.


내용에 들어가기 앞서, 영상을 잠깐 보고 갈까요?












어떤가요? 두 영상에 나오는 게임의 차이를 눈치채셨나요?


바로, 각각 VR(가상현실)AR(증강현실)을 이용해 만들어진 게임이라는 건데요.



먼저 VR은 Virtual Reality의 약자로 컴퓨터 그래픽 등을 통해, 현실이 아닌 3차원의 환경을 현실처럼 구현해내는 기술이랍니다.


위의 첫 번째 영상에서처럼, 특수장비를 사용해서 가상의 공간을 체험할 수 있게 하는 기술이 VR입니다.


AR은 Augmented Reality의 약자이며 현실에 가상의 요소가 추가되는 개념인데요,


현실의 정보를 이용해 가상 요소를 체험할 수 있게 하는 기술, 즉 위의 두 번째 영상과 같이


카메라로 얻은 실제 배경에 가상의 그래픽이 합성되어 하나의 영상으로 보여주는 기술이라 할 수 있어요.





VR과 AR, 비슷해 보이지만 둘의 차이는 명확합니다.


바로 허구냐, 실제냐 하는 것인데요. 


'나'를 주체로 봤을때 '내가 가짜 세상으로 들어가는 것'은 VR,


'내가 있는 세상에 가짜를 가져오는 것'은 AR이 되는 것입니다.






2016년 현재 VR과 AR 기술은 각각 게임, 교육, 광고, 영화, 엔터테인먼트, 스포츠 등 점차 많은 분야에 활용되고 있으며


앞으로도 더 큰 성장 가능성을 기대하고 있답니다.









저작자 표시 변경 금지
신고
Posted by 사람이 전부다





2014년 만우절에 구글에서 공개한 '포켓몬 챌린지'영상은 많은 사람들의 관심을 끌었습니다. 
구글 맵에서 전세계를 배경으로 포켓몬을 잡고 다른 사용자들과 배틀까지 가능한 게임인데요,
증강현실을 이용한 게임이 아닌 만우절 장난이였지만, 이후 '포켓몬GO'의 시작이 됩니다.










이후 닌텐도는 신사업 전략 발표회에서 증강현실을 이용한 '포켓몬 GO'라는 게임을 발표하였습니다.
사용법은 화면에 가상의 포켓몬이 등장하면 몬스터 볼을 던져서 포켓몬을 잡는 간단한 방식입니다.
기존 포켓몬 게임과 달리 유저가 직접 돌아다니면서 포켓몬을 잡아야 한다는것이 핵심입니다.



석준프로님이 직접! 속초가서 잡아온! 포켓몬GO 사진




'포켓몬 GO'게임에 사용된 증강현실기술이란 무엇일까요?
증강현실은 현실세계에 3차원의 가상 이미지를 합쳐 보여주는 기술입니다.
혼합현실이라고 부르기도 하는데요, '포켓몬GO'이외에 적용되고 있는 사례를 알아보겠습니다.





- 이케아 카달로그


카달로그를 원하는 곳에 두고 스마트폰과 타블랫을 활용해 가구를 미리 배치볼 수 있습니다.











- 구글 글래스


음성명령으로 네비게이션부터 검색, 메신져, 카메라 등 다양하게 활용 가능합니다.








증강현실 기술은 이외에도 다양한 마케팅, 게임, 전시 등 다양한 매체에서 활용되고 있습니다.

영화 '마이너리티리포트'를 떠올리게 하는데요, 영화가 현실이 되는 날도 머지 않았다는 생각이 듭니다.


저작자 표시 변경 금지
신고
Posted by 사람이 전부다

(SBS뉴스)



- 인공지능 AI란 무엇일까요?

인공지능(AI: Artificial Intelligence)란 인간의 지능을 갖춘 컴퓨터 기술을 의미합니다.
지난 3월 구글 딥마인드가 개발한 알파고(AlphaGo)와 이세돌 9단의 바둑대결이 화제였습니다.
바둑만큼은 인간이 로봇에게 앞서는 영역이여서 아무도 예상치 못했던 결과였습니다.

그래서 오늘은 인공지능(AI: Artificial Intelligence)에 대해서 알아보도록 하겠습니다.







(영화 A.I.)



제가 처음 AI를 접한것은 스티븐 스필버그 감독의 영화 A.I.에서 인데요
이 영화에서 주인공인 데이빗은 인간 어린아이와 똑같이 행동하는 감정을 가진 로봇입니다. 피노키오 동화처럼 인간이 되기 위해서 여행을 시작하는 이야기 입니다.

영화와는 조금 거리가 있지만 인공지능은 더이상 영화속 이야기만은 아닙니다.








그럼 이제 인공지능에 대해서 더 자세히 알아보기 위해 알파고능의 알고리즘에 대해서 살펴보겠습니다.



- 알파고의 전체 구조

알파고는 딥러닝 신경망(deep neural networks)과 몬테카를로 트리 검색(Monte-Carlo tree search)을 결합해 전문가로부터의 지도학습(supervised learning)과 자체 경기를 통한 강화학습(reinforcement learning)으로 훈련해왔다.

한 마디로 알파고는 딥러닝으로 구현된 정책과 가치를 활용해 몬테카를로 트리 검색 기법을 통해 바둑을 둔다는 것이다.











- 몬테카를로 트리 탐색을 통한 착수

알파고의 알고리즘은 현재 바둑에서 가장 널리 사용되는 인공지능 알고리즘인 몬테카를로 트리 탐색이다. 몬테카를로 트리 탐색은 최소-최대(Minimax) 알고리즘의 성능을 개선한 것으로 모든 경로를 탐색하기가 불가능한 상황에 효율적이다.

몬테카를로 트리 탐색의 절차는 선택(Selection), 확장(Expansion), 시뮬레이션(Simulation), 역전파(Backpropagation)라는 과정을 거친다. 현재 바둑판 상태에서 특정 경로로 수읽기를 진행(선택)한 뒤, 일정 수 이상 수읽기가 진행되면 그 지점에 한 단계 더 착수 지점을 예측(확장)한다.

확장에서 선택한 경로를 바둑이 종료될 때까지 랜덤 방식으로 자체적으로 진행합니다(시뮬레이션). 계산 속도가 빠르므로 여러 번 수행할 수 있지만 예측 착수의 적정성에는 의문이 있다. 이후 시뮬레이션의 결과를 종합해 확장 선택한 경로에서 가치를 파악(역전파)하고 승산 가능성을 다시 계산한다.







(사이언스/구글)



딥러닝 방식, 지도학습, 강화학습을 제대로 결합

알파고와 기존 인공지능 바둑 프로그램과의 차별점은 학습 방법에 있다. 알파고는 딥러닝 방식과 기존 지도학습 기법에 자체 대국을 통한 강화학습 등을 잘 결합했다.

딥러닝 신경망은 기존의 인공 신경망을 확장한 개념으로, 이미 빅데이터 분석이나 안면 인식, 이미지 분류 등에서 활용되고 있는 머신 러닝(machine learning)의 일부다. 딥러닝의 특성은 사람처럼 학습한다는 것에 있다.
이를 통해 알파고는 KGS GO라는 온라인 바둑 사이트의 최고수 기보 16만 개를 5주 만에 학습했다. 알파고는 바둑 기보를 19x19픽셀 이미지로 입력받아 다음 착수를 학습하는 과정을 거쳤다. 이는 바둑 입문자가 기보를 공부해 바둑 기사의 패턴을 습득하는 것과 유사하다.

이런 지도학습의 결과치로 나타나는 정책네트워크는 사람의 착수 선호도를 표현하는 것일뿐 이것이 승리로 가는 최적의 선택이라 판단하기는 힘들었다. 그래서 이를 보완하기 위해 지도학습으로 구현된 정책과 자체 경기를 통해 얻은 3,000만 개의 기보를 통해 결과적으로 승리하는 선택을 강화 학습 과정을 거쳤다.

알파고가 실제 기보로 학습하지 않고 자체 경기를 통해 강화 학습을 한 이유는 바로 과적합(Overfitting) 문제 때문이다. 과적합이란 인공지능이 기존 학습 데이터에 너무 고정되어 새로운 상황을 맞이하면 정책 결정에서 오류를 범한다는 것이다. 이는 머신 러닝 분야에서 풀어야 할 과제 가운데 하나로, 인공지능에서 종종 발생한다.

Read more: http://www.itworld.co.kr/news/98391#csidxd961bb6200b4a23a2364058abe9bb8f
Copyright © LinkBack







아무리 인공지능이 뛰어나다고 해도 아직은 인공지능이 인간을 대체하기는 어렵다는 생각이 듭니다.
앞으로 다양한 분야에서 인공지능과 상호 보완적으로 발전하기를 기대해 봅니다.
감사합니다.



저작자 표시 변경 금지
신고
Posted by 사람이 전부다

안녕하세요?? R&D 여자 2호 된 빛프로 입니다.

 

이번 포스팅 에서는 판도라티비 의 동영상 서비스에 이용 된 판도라티비의 기술(혹은 솔루션) 에 대해 소개 드리고자 합니다.

 

우리가 PC, 모바일 등의 영상서비스를 제공하기 위해 어떠한 기술력이 들어가 있는 지 살펴보도록 하자구요

 

1. 판도라티비 (채널서비스)

 

     - 스트리밍 : 영상을 별도의 다운로드 없이 PC/모바일에서 바로 재생할 수 있도록 하는 서비스 입니다. 
                      과거에는 (혹은 현재 몇몇 스트리밍 서비스 업체) 스트리밍 방식을 웹페이지나 쇼핑몰 등을 볼 때 이용 하는 방식과

                      동일하게 서비스를 했었습니다. 위와 같은 방식은 두가지 이슈사항이 있는데, 한가지는 초반에 많은 양을 한번에

                      다운로드를 받기 때문에 버벅거리는 현상이 발생 하는 것과, 한가지는 짧은 시간 (예를 들어 10분짜리 영상을 1분 안에
                      전체를 다운로드)에 전체 영상을 다운로드 받는 다는 것입니다. PC 에서는 무제한으로 인터넷을 쓰니 크게 문제사항이
                      없을 지라도, 모바일에서는 대부분이 정액제를 사용 하고 있기 때문에, 위와 같은 방식으로 서비스 되는 영상을
                      계속 재생 하게 되면은 얼마 가지 않아 모든 데이터를 소진 할 수 밖에 없습니다.

 

                      판도라티비의 스트리밍은 동영상 전용 캐싱 서버를 이용하여 사용자의 네트워크 환경에 따른 적절한 스트리밍 양을 조절하기
                      때문에 네트워크 낭비 없이 끊김 없는 서비스를 제공 하고 있습니다. 물론 모바일로 영상을 재생 했을 때에도 다른 스트리밍
                      서비스와 달리 다운로드 받는 속도를 조절하여 사용자의 소중한 트래픽 용량도 절약할 수 있습니다.

 

 

 

 

**비교 : 상단 영상은 9초 재생 했음에도 불구하고 영상의 2/3 정도 다운로드 완료, 사용자 입장에서 영상 재생 시에

            끝까지 영상을 재생 하지 않고 중단 했을 시에는 불필요한 데이터 낭비가 일어남

            하단 영상은 14초 영상 재생을 해도 사용자의 시청 시간을 고려하여 네트워크 조절, 영상을 중간에 중단 했을
            시에도 나머지 영역은 다운로드를 받지 않았기 때문에 데이터 낭비 없음

 

 

 

     - 영상 업로드 : 판도라TV 에서는 동영상 재생 뿐만 아니라, 내가 보고 싶은 영상을 내 전용 채널에 업로드 할 수 있는 기능이 있습니다. 

                          아래 그림과 같이 판도라TV 메인 페이지 내 "동영상 업로드"를 클릭 하시어 업로드 전용 페이지로 이동, 웹에서 바로 
                          업로드 할 수 있으며, (2GB 까지 가능) 혹은 고용량의 파일 혹은 여러개의 파일을 한번에 업로드 하기를 원하신다면,

                          판도라 TV 업로드 전용 어플리케이션을 설치하여 쉽고 빠르게 업로드 하실 수 있습니다.

                          또한 내 PC 인코딩을 2GB 이상의 파일(4K 영상 포함)을 업로드 하여 내 채널에서 스트리밍으로 감상 할 수 있습니다.

 

 

 

위: 판도라TV 메인 페이지 (동영상 업로드 버튼) | 아래 : 판도라 TV 오토 업로드

 

 

 

 

2. 에브리온TV

     - 판도라 TV의 형제인 에브리온 TV의 서비스도 소개 해 드리도록 하겠습니다.에브리온TV 서비스의 중심은 바로 "라이브"이며,
       라이브 스트리밍 또한 판도라TV 의 많은 기술력 중 한가지 입니다.

 

       N-screen 환경에서 VOD 영상 스트리밍은 포털 사이트 등에서 제공을 업체에서 하고 있지만,
       실시간 라이브 서비스를 모바일, PC 어플리케이션, 웹 등 에서 실시간으로 라이브 서비스를 제공 되는 것은 많지 않습니다.

       이러한 관점에서 "에브리온" 서비스는 모바일/PC 에서 기존 VOD 영상을 단순히 재생 하는 것에서 벗어나, 실시간 방송을 제공하며,

       방송사 뿐만 아니라, 콘텐츠를 가지고 있는 업체 혹은 개인에게도 실시간 방송을 할 수 있는 플랫폼을 제공 한다는 것에서

       다른 서비스와 차별점이 있다고 볼 수 있습니다.

 

 

에브리온에서 서비스 하고 있는 실시간 라이브 형태는 2가지 형태이며, 콘텐츠 사업자들은 가지고 있는 콘텐츠의 성격에 따라
알맞은 형태를 선택하여 서비스 할 수 있습니다.

 

         - VOD 파일 라이브 : VOD 형태의 영상 파일을 전용 플랫폼에 업로드, N-screen 서비스가 될 수 있도록 알맞은 포맷 (MP4)
           으로 자동 인코딩, 스케줄러에서 콘텐츠를 스케줄링 하여 실시간 방송 제공

         - 실시간 라이브 방송 : 실시간으로 송출 되고 있는 라이브 방송 신호를 자체 개발 인코딩 솔루션에 적용, 실시간으로
            라이브 인코딩 하여 N-screen 에 송출

 

 

 

3. KMPlayer

      - 전세계 230여개국, 36개 언어, 3억명이 이용하는 글로벌 멀티미디어플레이어로.‘글로벌 No1’ 멀티미디어 플레이어를 추구하며
        가장 재미있고 즐거운 미디어라이프를 제공하는 플레이어 입니다.

        기존 동영상 플레이어들이 가지고 있던 전통적인 미디어 사용방식에서 벗어나 새로운 경험과 UX를 제공하고 있습니다.
       
또한 기술고도화를 위해 인텔과 AMD와의 기술제휴를 통해 어떠한 CPU, GPU상에서도 가장 최적화된 영상콘텐츠를 서비스
        할 수 있으며 이는 전체 시장의
90%이상을 완벽히 지원하고 있습니다. 지속적인 코덱개발과 고도화를 통해 3D, UHD등 신기술
        개발에 앞장서고 있고
IT코리아의 우수한 기술력을 전세계 시장에 널리 알리고 있습니다.

 

 

이처럼, 판도라티비는 VOD 서비스 뿐만 아니라, VOD 를 이용한 라이브 서비스, 라이브 신호를 이용한 실시간 N-screen 서비스 및

모든 포맷의 영상을 재생(KMP) 등 끊김 없는 동영상 서비스를 위한 다양한 기술력을 서비스에 적용하고 있으며, 사용자에게

좀 더 나은 서비스를 제공 하기 위해 끊임없이 노력하고 있습니다.

 

 

마무리는 소유 눈의 여왕 OST로 ~

 

 

 

 

그럼 다음 포스팅에서 뵙겠습니다.~

 

 

 

 

 

 

 

저작자 표시 변경 금지
신고
Posted by 사람이 전부다

안녕하세요 판도라티비 R&D본부 빛프로 입니다.

 

이번 주제는 "사물인터넷의 유형과 발전방향" 에 대해 설명 드리겠습니다.

 

우선, 사물인터넷이 뭐징?? 이라고 의문을 가지실 분들을 위해 개념 설명 부터 하고 진행 하겠습니다.

 

1. 사물 인터넷이란?

     사물인터넷 (Internet of Things) 이란, 각종 사물에 컴퓨터 칩과 통신 기능을 내장하여 인터넷 연결하는 기술을 의미한다.
     약어로는 IoT이다. 여기서 사물이란 가전제품, 모바일 장비, 웨어러블 기기 등 다양한 임베디드 시스템이 된다.

     사물 인터넷에 연결되는 사물들은 자신을 구별할 수 있는 유일한 아이디를 가져야 하고, 인터넷을 통한 통신 능력을 가져야 하고,

     인터넷을 통한 통신 능력을 가져야 하고, 데이터를 처리하는 능력을 가져야 한다. 또한 필요한 경우 외부 환경으로부터의 데이터 취득을
     위해 센서를 내장 할 수 있다. 가트너에 따르면 2009년 까지 사물인터넷 기술을 사용하는 사물의 개수는 9억개였으나, 2020년 까지
     260개로 증가 할 것으로 예상 하고 있다.  

 

라고 우리의 친구 위키 백과는 설명하고 있습니다. 참 어려운 이야기 인 것 같지만 지금 우리가 살고 있는 주변 환경에 이미 스물스물 스며

들어 있습니다. 예를 들어, 인터넷 쇼핑을 할 수 있는 냉장고, 블루투스로 조작되는 조명과 보일러 시스템, 모바일에서 콘트롤 할 수 있는
TV 리모콘 앱 등 우리가 알게 모르게 이미 여러 곳에서 사용 되고 있음을 알 수 있습니다.

 

그렇다면 사물 인터넷의 현재 유형은 어떻게 진화 하고 있을까요?

 

2. 사물 인터넷의 사례

 

     1) Phiilps HUE : LED 전구에 wifi를 연결, 전용 어플리케이션으로 조명을 껐다 켤 수 있도록 서비스를 제공 하고 있습니다.
        밖에 나왔을 때 불을 끈 것을 깜빡 하거나 어둠에 떨고 있는 애완동물을 위해 밖에서 앱으로 간편하게 조정할 수 있습니다. 
 

 

    2) Huggies Tweet Pee : 기저귀에 센서를 부착, 기저귀의 젖은 정도를 측정하여 부모의 트위터로 알림을 날려줍니다. 
       참,, 쾌적한 상품입니다.

 

     3) Glow Cap : 미국 Vitality 사에서 개발한 스마트 약병으로, 약 복용 시간에 환자에게 알림을 주는 서비스 입니다. 약을 먹어야 할
        시간에 램프가 깜빡이면서 소리가 나 환자에게 알림을 주거나, 반대로 약 복용시간이 지났는데도 뚜껑이 열리지 않으면
        SMS 나 전화가 가기도 합니다.

 

    위의 세가지 사례는 제가 개인적으로 기사를 검색 했을 때 재밌다고 느낀 것들을 발췌하여 작성 하였으며, 이 외에도 우리 주변에 
    많은 부분에서 IoT 가 적용되어 여러모로 활용 되고 있습니다.

 

3. 사물인터넷의 발전방향

 

미래에는 어떠한 방향으로 사물 인터넷이 발전 하게 될까요??

 

 

위의 그림과 같이 IoT 에 비중은 급속도로 성장이 예측 되고 있습니다. 아마도 미래의 제품의 모든 곳(냉장고, 세탁기, 숟가락, 젓가락 등등)에

IoT가 적용되어 출시가 될 것이다라고 감히 예측 할 수 있습니다.

 

 

 

위의 그림과 같이 2020년 사물 인터넷 연결 디바이스 전망에 대한 예측을 보시면, 생활 가전 (Consumer Electronics)의 비중이 높으며,

현재보다 약 100배 정도 증가할 것으로 예상 한다고 합니다. (KT 경제연구소 등 참조)  

 

사물 인터넷 플랫폼 관련해서도 세계 주요 플랫폼 업체, 통신사는 독자적 또는 업체간 협력을 통해 플랫폼, 솔루션 개발을 활발히 추진

하고 있습니다. 또한 현재 스마트폰에서 나타나고 있듯이, 사물 인터넷 관련 기기들에 탑재 될 운영 체제와 SW 플랫폼을 둘러싼 경쟁이
확대 될 것으로 예상 하고 있습니다.

 

현재는 안드로이드(구글)-iOS(애플) 양자간 경쟁구도로 진행 되고 있지만, 스마트기기, IoT 시장의 급성장 속에서 각 업체 별로

경쟁력 있는 독자적 OS 개발에 힘쓸 것으로 예상 됩니다.

 

 

현재 우리도 모르게 우리 삶에 깊숙히 침투 해 삶을 편안하고 유익하게 만들어 주고 있으며, 앞으로도 좀 더 많은 분야에서

다양한 형태로 제작되어 유용하게 이용 될 것으로 예상 됩니다.

 

그럼 오늘은 이만 물러나겠습니다.

 

안녕~

 

 

 

 

           

저작자 표시 변경 금지
신고
Posted by 사람이 전부다

안녕하세요? 판도라티비 기술기획팀 빛프로 입니다.

 

이번에 설명 드릴 내용은 "빅데이터 현황과 활용방식" 입니다.

 

우선 설명 이전에 "빅데이터" 라는 용어에 대한 개념을 설명 드리겠습니다.

 

1. 빅데이터란?

 

기존 데이터 베이스 관리도구로 데이터를 수집, 저장, 관리, 분석할 수 있는 역량을 넘어서는 대량의 정형 또는 비정형 데이터 집합  및 이러한 데이터로부터 가치를 추출하고 결과를 분석하는 기술을 의미한다

다양한 종류의 대규모 데이터에 대한 생성, 수집, 분석, 표현을 그 특징으로 하는 빅 데이터 기술의 발전은 다변화된 현대 사회를 더욱 정확하게 예측하여 효율적으로 작동케 하고 개인화된 현대 사회 구성원 마다 맞춤형 정보를 제공, 관리, 분석 가능케 하며 과거에는 불가능했던 기술을 실현시키기도 한다. 이같이 빅 데이터는 정치, 사회, 경제, 문화, 과학 기술 등 전 영역에 걸쳐서 사회와 인류에게 가치있는 정보를 제공할 수 있는 가능성을 제시하며 그 중요성이 부각되고 있다.

 

라고 위키 백과에서는 설명 하고 있으며, 좀 더 쉽게 말씀을 드리면, 오늘 녹색창에서 검색 했던 아이돌 그룹, 어제 못봤던 "비정상회담"의 하이라이트 영상 재생,  키워드 클릭 등 우리가 웹 상에서 행하고 있는 모든 형태를 통계로 수집 하는 것을 빅데이터라고 볼 수 있습니다.

 

이러한 행동 패턴을 데이터 화 하여 분석 하면 해당 콘텐츠의 사용자 정보 (성별, 연령대, 사는 지역 등등등)를 파악하여 마케팅이나 영업 등에 활용 할 수 있습니다.

 

2. 빅데이터의 구성 요소

 

그렇다면 빅데이터의 구성요소는 무엇이며, 어떠한 데이터가 결합되어 빅데이터라고 칭해질까요?

 

빅데이터의 구성요소는 각 기관에 따라 3~4가지의 요소로 구분하고 있으나, 이들을 종합 해 보면 빅데이터는 규모, 다양성, 복잡성, 속도의

특성을 갖고 있으며, 4개의 요소가 충족 될 수록 빅데이터에 적합하다고 볼 수 있습니다. 또한 이와 더해져 가장 주목 할 부분은 "실시간성"

입니다. 궁극적으로 빅데이터에서는 분석 결과를 실시간으로 활용하는 것을 추구하며, 이것이 과거 "통계" 라고 불리웠던 과거 기술 트렌드와

빅데이터를 구분하는 가장 큰 특징이라고 할 수 있습니다.

 

이렇듯 빅데이터는 전 산업 분야에서 활용 되고 있으며, 마케팅 성공 예측, 상품 결함 분석 등등 에서 활용 되고 있습니다.

 

그렇다면 현재 빅데이터의 현황 및 활용 사례를 확인 해 보겠습니다.

 

2. 빅데이터 현황

 

    1) 해외 빅데이터 선도 기업

 

핵심데이터

매일 발생하는 데이터 양

구글

방문자의 검색어와 클릭한 광고나 링크

6.2억명의 방문자

음식점 리뷰, 여행정보, 지도데이터, 교통정보 등 일상생활과 밀접한 각종 정보

10억 건의 검색

안드로이드 디바이스를 통한 사용자 정보

72억 건의 페이지 뷰

아마존

1.2억의 고객정보

440만명의 방문자

고객의 검색어와 상품 탐색 및 구매내역

900만개의 상품주문(2010년 크리스마스 기준)

230만 종의 서적 데이터베이스

 

페이스북

20억명의 회원, 1000억건의 친구관계

2.5억의 사진

회원의 관심사, 소속, 결혼여부, 심리상태 등의 소셜데이터 보유

27억건의 "좋아요" 와 댓글

 

위의 표와 같이 해외 유명 업체에서는 본인들의 서비스에서 발생하는 데이터를 빅데이터화, 사용자의 패턴을 분석하여

마케팅 등에 활용 하고 있습니다.

 

    2) 국내 활용 및 성공사례

국내 업체에서도 빅데이터를 다양한 분야에서 활용하고 있는데요, 어떠한 방법으로 분석하고 활용하였는지 살펴 보겠습니다.

 

     - 삼성전자 : 빅데이터 센터를 설립히가 소비자 마케팅에 빅데이터 활용, 빅데이터 분석으로 전 세계 현지 소비자 기호를 파악하고

                       제품 라인업을 다르게 가져가는 식으로 활용. 지역별 가옥 구조와 소비자 선호도를 분석하여 어떤 크기의 TV가 적합한지

                       분석

    - LG전자 : 화면크기나 카메라 기능 등 국가별로 어떤 제품을 선호하는지 파악해 고객층을 세분화, G3 에 "스마트 키보드" 기능 탑재하여

                    사용자의 문자입력 습관을 빅데이터 기술로 분석해 자동으로 오타를 줄여줌

    - 현대자동차 : 자동차 생산과 개발 관련 데이터를 포함해 검사와 수리 데이터 까지 대량의 빅데이터를 제품 개발과 생산공정에 적용

 

3. 국내 빅데이터 시장의 나아갈 길

 

위키본에 의하면 빅데이터 시장이 2012년 54억 달러에서 2017년 534억 달러로 5년 내 10배 이상 커질 것으로 예상 했습니다.

국내도 마찬가지로 2020년 까지 빅데이터가 전체 ICT 분야에서 2.3% 수준으로, 현재 0.3% 수준에서 약 10배 가량 성정 할 것으로

예상 했습니다.

 

하지만 거대한 잠재력이 비해 국내 빅데이터 시장은 아직 체감 수준이 낮은데요, 이는 기업에서 빅데이터를 충분히 활용 하고 있지

못하고 있기 때문입니다.

 

이렇게 빅데이터 활용이 제대로 이뤄지지 않자 미래창조과학부에서는 2017년 까지 빅데이터 전문가 5000명을 양성하겠다고 하였습니다.

이처럼 국가에서도 빅데이터 활용에 대한 중요성을 인지하고 인재양성에 힘을 쏟겠다라는 뜻으로도 이해가 됩니다.

 

판도라티비에서도 사용자가 업로드 하는 UCC의 키워드 분석 및 시청 패턴 분석을 통해 메인 포털에 추천영상 및

카테고리 별 인기 영상을 메인 페이지에 놓아 사용자가 쉽게 인기 영상을 시청 할 수 있도록 서비스를 제공 하고 있습니다.

 

 

 

 

 

좌 : 추천영상 (인기 영상 푸시) | 우측 1) TV 박스 : 화제 영상 선별 | 우측2) 실시간 급상승 영상

 

 

4. 마무으리

 

이처럼 하루에도 무수히 쏟아지고 있는 데이터 홍수 속에서 서비스에 맞는 데이터를 뽑아내고 분석 하여 의미있는 자료로 만들져

여러 서비스에 유용하게 사용 할 수 있는 날이 하루 빨리 오기를 소망해 봅니다.

 

그럼 20000~

 

 

(아시안 게임 선전 기원 엄지척~!!)

 

 

 

저작자 표시 변경 금지
신고
Posted by 사람이 전부다

안녕하세요? 판도라티비 R&D 본부 여자 3호 빛프로 입니다.

 

판도라티비에서 4K 동영상을 감상 하실 수 있는 "4K  UHD 전용관" 을 오픈 하였습니다!! ( 우왕~ )

 

 

 

 

 

이와 같이 4K 영상을 스트리밍 서비스로 감상하실 수 있도록 제공 할 수 있게 된 배경에는 판도라티비 만의 영상 서비스 노하우로 숨은 기술력이 집약 되었다고 생각하셔도 무방 할 듯 싶습니다.

 

지금부터 판도라티비에서 국내 최초 4K 서비스를 가능 하게 하였던 기술들에 대해 확인 해 보도록 하겠습니다.

 

     1. codec

         코덱 (codec) 이란 음성 또는 영상의 신호를 디지털로 바꿔주는 인코딩과 그 반대의 기능인 디코더의 기능을 가지고 있는 기술을

         뜻하며, 현재 판도라티비에서 이용하고 있는 코덱은 스트리밍 가능한 영상 코덱 중 압축율이 가낭 높은 H.264 코덱을 사용 하고

         있습니다.

 

         4K화질의 영상을 스트리밍으로 재생 하기 위해서는 원본 영상이 4K 영상 이상의 해상도의 영상을 인코딩 해야 하며, 4K이상의 영상을

         인코딩 없이 재생 하게 되는 경우에는 상당량의 데이터 낭비가 일어납니다.

 

         쉽게 이야기 해 모바일에서 인코딩을 거치지 않는 4K급 영상을 스트리밍으로 재생 했을 시 1개월 약정 용량을 영상 재생 한방에

         소진 할 수도 있다는 이야기 입니다.

 

         하지만, 판도라티비의 4K 영상을 모바일에서 재생 했을 시에도 많은 데이터 손실이 일어나지 않는데요, 이는 사용자가 영상

         업로드 시 판도라티비의 인코더를 거쳐 스트리밍 가능 한 형태로 압축이 된 영상이 재생 되기 때문입니다.

 

         따라서 4K 영상을 스트리밍으로 매끄럽게 감상 하기 위해서는 H.264 코덱으로 인코딩을 거치는 과장이 중요 하다고 볼 수 있습니다.

 

   2. 스트리밍 기술

       인코딩을 거친 영상이라도, 최종 송출 부분에서 어떻게 데이터를 제어하여 송출 하는 것이 중요 합니다. 대부분의 영상 스트리밍은

       영상 재생 시 빠른 시간 내 영상이 다운로드 & 플레이 될 수 있도록 송출하고 있습니다. 이러한 시스템에서 4K 영상과 같은 초고화질,

       고용량 영상을 재생하게 되면, 성능이 좋지 않은 PC, 혹은 모바일에서 영상 감상 시 상당히 버벅거리거나 재생이 되지 않는 것을

       보실 수 있습니다.

 

       판도라티비의 영상 송출 방식은 미디어 서비스에 최적화된 영상 스트리밍 서버를 이용하여 영상 스트리밍 시 사용자의 네트워크를

       감지,최종 사용자의 인터넷 환경에 맞게 제어하여 송출 하므로, 어떠한 인터넷 환경에서도 끊김없는 스트리밍 서비스를 받으실 수

       있습니다. 또한 4K 와 같은 초고화질 영상도 온라인 상에서 스트리밍 서비스를 할 수 있던 것도 위와 같은 이유라고 보실 수 있습니다.

 

3. 앞으로의 숙제들..

      4K 영상 서비스를 제공 한다고 해서 안주 할 수는 없습니다. 4K, 나아가 8K의 영상을 서비스 하기 위해서는 많은 노력이 필요 합니다.

      우선은 현재 사용 하고 있는 H.264 코덱 보다 압축율이 뛰어난 VP9과 H.265코덱을 실 서비스에 적용 할 수 있도록 영상 관련

      연구개발이 필요합니다. 앞서 말한 VP9과 H.265는 차세대  영상 코덱으로서, 현재 많이 사용 되고 있는 VP8과 H.264과 비교하여

      동일 퀄리티 대비 약 50% 가량의 비트레이트 감소를 목표로 하고 있습니다. 이와 같이 차세대 코덱이 실 서비스에 적용이 되면, 그만큼

      낮은 데이터 사용 대비 고화질 감상을 할 수 있으니, 데이터를 많이 사용 하지 않고도 높은 화질의 영상을 감상 하실 수 있게 됩니다.

 

 

그럼 다음 시간에 다시 뵙겠습니다.

 

안녕~

 

 

 

 

 

저작자 표시 변경 금지
신고
Posted by 사람이 전부다

안녕하세요 판도라티비 R&D본부 기술기획팀 여자 3호 빛프로 입니다.

 

이번 동영상 연구소의 주제는 "영상 비트레이트와 해상도 (Btirate & Resolution)" 입니다.

 

TV 나 모니터를 구매 하실 때 "고해상도 / Full HD 지원" 이라는 문구를 자주 보셨을 텐데요..

 

지금 부터 설명 해 드릴 내용은, 해상도와 비트레이트에 대한 간단한 설명과 영상의 해상도 별 적정 비트레이트를 설명하여

 

영상 제작 시 혹은 기존 영상 파일을 Multi-Device에서 재생 시 왜곡 없는 인코딩 하실 수 있도록 적절한 가이드라인을 드리도록 하겠습니다.

 

1. 해상도와 비트레이트란?

 

    1) 해상도 (Resolution) :  종이나 스크린 등에 표현된 그림이나 글씨 따위가 표현된 섬세함의 정도를 나타내는 말

       -> 사전적 의미는 위와 같으며, 보통 1인치 안에 표현되는 화소나 점의 개수 이며, 해상도가 높을 수록 한정적인 공간에

            픽셀의 개수가 더 많이 들어간다는 의미 이므로 더 섬세하고 자연스러운 영상 이미지를 보실 수 있습니다.

    2) 비트레이트(Bitrate) : 초 당 처리하는 비트

       -> 비트레이트가 높을 수록 초당 처리하는 연산이 많아 진다는 의미 이므로, 영상 재생 혹은 스트리밍 시 비트레이트가 높을 수록 
            하이 퀄리티의 영상을 보실 수 있습니다.

 

    3)  해상도와 비트레이트의 상관관계 

비트레이트가 인코딩 설정의 실제적인 핵심 요소입니다. 이 비트레이트라는 것은 보통 bps(bit per second)라고 표시하는데 '1초당 얼마만
큼의 정보량'을 담을 것이냐를 결정하는 것입니다. 당연히 많은 정보량을 담을 수록 좋은 결과물을 얻을 수 있습니다. 그런데 여기에 해상도
와의 관계가 붙습니다. 얼마만 한 크기에 얼마 만큼의 정보량을 담느냐에 따라 결과물이 달라진 다는 얘기입니다. 해상도는 보통 pixel(px)로 
표시합니다. 카메라 성능을 이야기 할 때 500만 화소, 1000만 화소 하는 것은 가로 해상도와 세로 해상도를 곱한 것을 이야기합니다. 가로 
100px 세로 100px은 1만 화소가 되고, 가로 1000px 세로 1000px은 100만 화소가 되는 것입니다. 즉 화소에 얼마의 정보량을 담을 것이냐가 
비트레이트와 해상도의 관계입니다. 같은 비트레이트라면 해상도가 작을 수록 화질이 선명해보이고, 같은 해상도라면 비트레이트가 
높을 수록 화질이 선명해 보입니다.

 

각 영상 화질 (SD ~UHD 8K) 별 해상도 정의 및 초당 처리하는 비트 수와 처리 용량은 아래 표를 참조 하시면 됩니다.

 

No.

Resolution

Width

Height

Pixel

YUV

Bit Count

Bit

Byte

KB

MB

1

SD

720

480

345,600

444

24

8,294,400 

1,036,800.0 

1,012.50 

0.989 

422

16

5,529,600 

691,200.0 

675.00 

0.659 

420

12

4,147,200 

518,400.0 

506.25 

0.494 

411

12

4,147,200 

518,400.0 

506.25 

0.494 

2

HD

1280

720

921,600

444

24

22,118,400 

2,764,800.0 

2,700.00 

2.637 

422

16

14,745,600 

1,843,200.0 

1,800.00 

1.758 

420

12

11,059,200 

1,382,400.0 

1,350.00 

1.318 

411

12

11,059,200 

1,382,400.0 

1,350.00 

1.318 

3

FHD

1920

1080

2,073,600

444

24

49,766,400 

6,220,800.0 

6,075.00 

5.933 

422

16

33,177,600 

4,147,200.0 

4,050.00 

3.955 

420

12

24,883,200 

3,110,400.0 

3,037.50 

2.966 

411

12

24,883,200 

3,110,400.0 

3,037.50 

2.966 

4

UHD 4K

3840

2160

8,294,400

444

24

199,065,600 

24,883,200.0 

24,300.00 

23.730 

422

16

132,710,400 

16,588,800.0 

16,200.00 

15.820 

420

12

99,532,800 

12,441,600.0 

12,150.00 

11.865 

411

12

99,532,800 

12,441,600.0 

12,150.00 

11.865 

5

UHD 4K

4096

2160

8,847,360

444

24

212,336,640 

26,542,080.0 

25,920.00 

25.313 

422

16

141,557,760 

17,694,720.0 

17,280.00 

16.875 

420

12

  106,168,320 

  13,271,040.0 

  12,960.00 

12.656 

411

12

106,168,320 

13,271,040.0 

12,960.00 

12.656 

6

UHD 8K

7680

4320

33,177,600

444

24

796,262,400 

99,532,800.0 

97,200.00 

94.922 

422

16

530,841,600 

66,355,200.0 

64,800.00 

63.281 

420

12

  398,131,200 

49,766,400.0 

48,600.00 

47.461 

411

12

398,131,200 

49,766,400.0 

48,600.00 

47.461 

7

UHD 8K

8192

4320

35,389,440

444

24

849,346,560 

106,168,320.0 

103,680.00 

101.250 

422

16

566,231,040 

70,778,880.0 

69,120.00 

67.500 

420

12

424,673,280 

53,084,160.0 

51,840.00 

50.625 

411

12

424,673,280 

53,084,160.0 

51,840.00 

50.625 

 

 

 

2. wida screen 과 non-wide screen 시 적정 해상도 및 비트레이트

 

 1)  wide screen : 16:9 비율의 옆으로 넓은 스크린을 뜻하며, 극장에서 많이 사용하고 있는 스크린 비율 입니다.

     (일반적으로 HD 영상의 비율입니다.)

 

     --> 와이드 스크린은 좌우 폭이 넓어 영상의 사실감이 높음

 

 

    wide screen 의 스크린샷 예시

 

 

 

 

 2) non-wide screen : 4:3 의 영상 비율 뜻하며, HDTV 이전의 브라운관 TV 에서 사용하던 비율 입니다.

 

    --> 4:3 비율은 안정성이 높아 가장 보기 편한 비율임

 

non-wide 스크린샷 예시

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3. 스마트 디바이스 별 해상도 정리

 

해상도와 비트레이트의 개념을 정리 하였으니, 이제는 사용자가 이용하는 멀티 디바이스 (스마트폰, 패드, 등등)에 적합한 해상도와,

적정 비트레이트를 말씀 드리도록 하겠습니다.

 

영상 인코딩 시 해상도는 가지고 계신 디바이스의 비율 (16:9 or 4:3)을 동일하게 작성하시어 넣으며, 고화질의 영상을 원하시면

높은 해상도를 넣으시면 됩니다.

예) A) 16:9 = B) 640*360 = C) 1280*720 but "C" 영상의 해상도가 "B" 영상의 해상도에 2배가 되므로, C 영상이 더 고화질로 보임

 

하지만,  비트레이트가 낮으면 해상도가 높아도 화질이 좋아 보이지 않습니다. 따라서 각 해상도별 적정 비트레이트를 맞추어 인코딩

해야만 왜곡 없고 선명한 화질의 영상을 보실 수 있습니다.

 

 

각 디바이스 작성 구분은 현재 상용되고 있는 디바이스 기준으로 작성하였습니다. (단 코덱 사용은 H.264 기준입니다.)

 

디바이스

구분

화면크기
(inch)

디스플레이 해상도

galaxy

16:9비율

S3

4.8

1280*720(16:9)

 

해상도

비율

video

audio

S4

5.1

1920*1080(16:9)

UHD

3840*2160

16:9

10Mbps

192Kbps

S5

5.1

1920*1080(16:9)

FHD

1920*1080

16:9

4Mbps

128Kbps

galaxy note

HD

1280*720

16:9

2Mbps

128Kbps

note2

5.5

1920*1080(16:9)

SD

720*405

16:9

1.2Mbps

96Kbps

note3

5.7

1920*1080(16:9)

4:3 비율

note4

5.7

2560*1440(16:9)

 

해상도

비율

video

audio

galaxy note(pad)

HD

960*720

4:3

2Mbps

128Kbps

galaxy note 10.1

10.1

1280*800(16:10)

SD

640*480

4:3

1.2Mbps

96Kbps

galaxy tab 10.1

10.1

1280*800(16:10)

3:2 비율

 

 

 

 

해상도

비율

video

audio

iphone

SD

960*640

3:2

1.2Mbps

96Kbps

iphone3

3.5

480*320(3:2)

LD

480*320

3:2

850Kbps

64Kbps

iphone4

3.5

960*640(3:2)

iphone5

4.0

1136*640(16:9)

ipad

ipad3

9.7

2048*1536(4:3)

ipad4

9.7

2048*1536(4:3)

ipad mini

7.9

2048*1536(4:3)

LG optimus

G2

5.9

1920*1080

G3

5.5

2560*1440

PC

Desktop

19~30

1920*1080

Notebook

15~17

1600*900

TV

FHD TV

55

1920*1080

UHD TV

85

3840*2160

 

 

좌 : 각 디바이스 별 디스플레이 사이즈 및 지원 해상도

우 : 각 해상도 별 적정 인코딩 스펙(해상도 및 비트레이트)

 

위의 표를 참조하시어 영상 인코딩 하시면 왜곡 없는 화면을 감상 하실 수 있습니다.

 

 

 

 

 

이상입니다~

 

저작자 표시 변경 금지
신고
Posted by 사람이 전부다


티스토리 툴바