반응형
목차
- 1. 작업 디렉토리 생성
- 2.Dockerfile 작성
- 3.도커이미지 빌드
- 4.Dockerhub에 도커이미지 업로드
- (1) 도커허브에 Repository 만들기
- (2) 도커이미지 이름 변경
- (3) 도커이미지 업로드
- 5.spark-hadoop-cluster 구동
- (1) 컨테이너 구동
- (2) 클러스터 구동
- (3) 클러스터 구동 테스트
- 6.github와 연동
- (1) 작업디렉토리 github와 연동
- (2) Dockerhub autobuild 적용
- 개선할 사항
참고링크
https://kadensungbincho.tistory.com/45
https://eng.uber.com/hadoop-container-blog/
반응형
'BigData 기술 > Spark' 카테고리의 다른 글
histogram in spark (scala) using zeppelin (4) | 2020.06.23 |
---|---|
jupyter 노트북에서 pyspark 사용하기 (2) | 2020.04.28 |
spark history 서버 설정 및 구동 (4) | 2020.04.22 |
[spark] 리눅스 환경에서 maven + spark + scala (920) | 2019.06.28 |
[spark] 아파치 스파크 클러스터 종류 (2) | 2019.06.27 |
댓글