спарк с сервера
                  
                  
                  в локальном режиме работает  и доступ к hdfs есть, но есть выполнять при --master yarn то  спарк пытается запуститься на хосте контейнера
                  
                  
                  и получаю такую стектрейс
                  
                  
                  22/04/01 12:05:17 ERROR YarnClientSchedulerBackend: YARN application has exited unexpectedly with state FAILED! Check the YARN application logs for more details.
                  
                  
                  22/04/01 12:05:17 ERROR YarnClientSchedulerBackend: Diagnostics message: Uncaught exception: org.apache.spark.SparkException: Exception thrown in awaitResult: 
                  
                  
                  ...
                  
                  
                  Caused by: java.io.IOException: Failed to connect to df544bea64b3:44413
                  
                  
                  ...
                  
                  
                  Caused by: java.net.UnknownHostException: df544bea64b3
                  
                  
                  
                  
                  
                  df544bea64b3  - имя контейнера
                  
                  
                  
                  
                  
                  может я где то не настроил конфиги? может кто сталкивался с таким?
                  
                  
                  
                  
                  
                  запускаю так $SPARK_HOME/bin/spark-submit --master yarn
                  
                  
                
docker run --net=host Либо в spark.driver.host и spark.driver.port указывать адрес ноды и порта, где запускаешь контейнер, и пробрасывать этот порт.
Обсуждают сегодня