매분 데이터 세트를 생성하는 스파크 스트리밍 응용 프로그램이 있습니다. 처리 된 데이터의 결과를 저장 / 덮어 쓰기해야합니다.
org.apache.hadoop.mapred.FileAlreadyExistsException 데이터 세트를 덮어 쓰려고하면 실행이 중지됩니다.
Spark 속성을 설정 set("spark.files.overwrite","true")
했지만 운이 없습니다.
Spark에서 파일을 덮어 쓰거나 미리 삭제하는 방법은 무엇입니까?
set("spark.files.overwrite","true")
추가 된 파일에 대해서만 작동합니다.spark.addFile()