이번에 java를 시작해서
웹에서 폰 카메라의 영상을 streaming하려고 하고 있습니다. 찾다보니
소켓에는
websocket, socket.io 외에 또있엇던거 같은데. 기억이..
이 소켓으로 연결을하고 전송을 Mediacodec으로 압축하여 Http나 RTSP 등의 프로토콜로
전송합니다.
이때 웹에서 이 데이터를 받아서 데이터를 디코딩하고 여기서 디코딩하면 yuv데이터로 나오므로
다시 RGB로 변환시키고 화면에 canvas로 그려주는 방식인것 같아요..
여기서 정리를 하자면..
1) 우선 WebSocket으로 Server와 Client 통신 테스트를 해본다.
2) HTTP, RTSP 등 프로토콜을 이용하여 WebSocket으로 통신을 해본다. (여기서 뭐가 좋은지도 모르겟네요)
3) node js를 이용하여 웹을 구성하고 웹에 데이터를 받아본다.
4) Codec을 이용하여 영상을 압축하고 전송한다.
5) 영상 데이터를 받을 웹을 구성한다?
이런식으로 진행하면 되는건가요?
여기서 스마트폰이 서버가 되는 건가요? 아니면 웹이 서버가 되는 건가요?
node.js로 js파일을 실행시켜서 서버를 구동 시키던데 만약 스마트폰이 서버라면 js파일을 어떻게 적용시켜야
하나요?
현재 사용하는 환경은 Window7
Android Studio입니다.