这是我的hadoop的core-sitm.xlm里面的配置的hadoop的端口hdfs://mycluster,可以用hadoop fs -put +文件+hdfs://mycluster上传文件,hive与hbase都可以用这个端口,结果配置spark配置的历史服务用不了,报连接不上8020端口,如何用活跃着的namenode的服务端口可以正常使用,kill掉后,活跃的namenode的端口跑到其他服务器上,又用不了了,求怎么配置hadoopHA下的spark的历史服务

这是我的hadoop的core-sitm.xlm里面的配置的hadoop的端口hdfs://mycluster,可以用hadoop fs -put +文件+hdfs://mycluster上传文件,hive与hbase都可以用这个端口,结果配置spark配置的历史服务用不了,报连接不上8020端口,如何用活跃着的namenode的服务端口可以正常使用,kill掉后,活跃的namenode的端口跑到其他服务器上,又用不了了,求怎么配置hadoopHA下的spark的历史服务