1
resposta

Step sempre dá fail

Desde o curso anterior o step falha. Alguém teve este erro e encontrou a solução?

24/10/01 00:59:26 INFO ApplicationMaster: Starting the user application in a separate Thread
24/10/01 00:59:26 INFO ApplicationMaster: Waiting for spark context initialization...
24/10/01 00:59:27 ERROR ApplicationMaster: User application exited with status 2
24/10/01 00:59:27 INFO ApplicationMaster: Final app status: FAILED, exitCode: 13, (reason: User application exited with status 2)
24/10/01 00:59:27 ERROR ApplicationMaster: Uncaught exception: 

Exception in thread "main" org.apache.spark.SparkException: Application application_1727744286837_0001 finished with failed status
    at org.apache.spark.deploy.yarn.Client.run(Client.scala:1321)
    at org.apache.spark.deploy.yarn.YarnClusterApplication.start(Client.scala:1754)
    at org.apache.spark.deploy.SparkSubmit.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:1075)
    at org.apache.spark.deploy.SparkSubmit.doRunMain$1(SparkSubmit.scala:194)
    at org.apache.spark.deploy.SparkSubmit.submit(SparkSubmit.scala:217)
    at org.apache.spark.deploy.SparkSubmit.doSubmit(SparkSubmit.scala:91)
    at org.apache.spark.deploy.SparkSubmit$$anon$2.doSubmit(SparkSubmit.scala:1167)
    at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:1176)
    at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
24/10/01 00:59:28 INFO ShutdownHookManager: Shutdown hook called
24/10/01 00:59:28 INFO ShutdownHookManager: Deleting directory /mnt/tmp/spark-bb50761f-5624-4e3d-9486-f5ea984d473f
24/10/01 00:59:28 INFO ShutdownHookManager: Deleting directory /mnt/tmp/spark-44ccb4b4-a1c6-4281-8f0f-4372e10b76dd
Command exiting with ret '1'
1 resposta

Oie, Regiane! Tudo joia?

Sinto muito pelo impedimento que está tendo, vamos testar algumas possibilidades para reparar esse erro que pode ocorrer por vários motivos, como, por exemplo, configurações dos parâmetros da aplicação, erros de sintaxe, falta de permissões e etc.

Como sugestão, revise se o script main.py não possui erros de sintaxe ou lógica, e confere se o EMR tem permissões válidas para acessar buckets do S3. E ao rodar jobs mais pesados, sugiro alterar a configuração de memória do sparkle, definindo um valor maipr para o spark.executor.memory.

Espero que as sugestões te ajude a reparar o problema junto com a documentação.

Bons estudos e até mais!