Aufrufen von Java/Scala-Funktionen aus der PySpark-Aufgabe
In PySpark kann die Nutzung von in Java oder Scala implementierten Funktionen eine Herausforderung darstellen. Während die Scala-API eine empfohlene Problemumgehung für den Aufruf von DecisionTreeModel.predict bietet, wird nach einer allgemeineren Lösung gesucht.
Technischer Kontext
Das Problem tritt auf, wenn Java-Funktionen von PySpark aufgerufen werden Aufgaben, insbesondere aufgrund der Beteiligung von JavaModelWrapper.call. Diese Methode versucht, auf SparkContext zuzugreifen, der im Worker-Code nicht verfügbar ist.
Elegante Lösung
Eine elegante Lösung bleibt schwer zu finden. Es gibt zwei schwergewichtige Optionen:
Alternative Ansätze
Erwägen Sie stattdessen alternative Ansätze:
Das obige ist der detaillierte Inhalt vonKönnen Sie Java/Scala-Funktionen von einer PySpark-Aufgabe aus aufrufen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!