如题,我有一个自定义的任务,但是在Spark中没有专门的函数可以执行该任务的并行操作,我可以在程序中指定这个任务的并行方式吗?就是说我能够将该任务手动分解(分解后任务互相独立),然后分别分发到指定的节点,来实现并行运算吗?
2.1m questions
2.1m answers
60 comments
57.0k users