Problembehandlung für den ORC-Formatkonnektor in Azure Data Factory und Azure Synapse

Gilt für: Azure Data Factory Azure Synapse Analytics

Tipp

Data Factory in Microsoft Fabric ist die nächste Generation von Azure Data Factory mit einer einfacheren Architektur, integrierter KI und neuen Features. Wenn Sie mit der Datenintegration noch nicht vertraut sind, beginnen Sie mit Fabric Data Factory. Vorhandene ADF-Workloads können auf Fabric aktualisiert werden, um auf neue Funktionen in der Datenwissenschaft, Echtzeitanalysen und Berichterstellung zuzugreifen.

Dieser Artikel enthält Vorschläge zur Problembehandlung häufiger Probleme mit dem ORC-Formatkonnektor in Azure Data Factory und Azure Synapse.

Fehlercode: OrcJavaInvocationException

  • Meldung: An error occurred when invoking Java, message: %javaException;.

  • Ursachen und Empfehlungen: Verschiedene Ursachen können zu diesem Fehler führen. Überprüfen Sie diese Liste auf mögliche Ursachenanalyse und zugehörige Empfehlung.

    Ursachenanalyse Empfehlung
    Wenn die Fehlermeldung die Zeichenfolgen "java.lang.OutOfMemory", "Java heap space" und "doubleCapacity" enthält, handelt es sich dabei in der Regel um ein Speicherverwaltungsproblem in einer alten Version von Integration Runtime. Wenn Sie self-hosted Integration Runtime verwenden, empfehlen wir, ein Upgrade auf die neueste Version durchzuführen.
    Wenn die Fehlermeldung die Zeichenfolge „java.lang.OutOfMemory“ enthält, verfügt die Integration Runtime nicht über genügend Ressourcen zum Verarbeiten der Dateien. Begrenzen Sie die gleichzeitigen Läufe auf der Integration Runtime. Skalieren Sie für „Selbstgehostete IR“ auf einen leistungsfähigen Computer mit einem Arbeitsspeicher von mindestens 8 GB hoch.
    Wenn die Fehlermeldung die Zeichenfolge „NullPointerReference“ enthält, ist die Ursache möglicherweise ein vorübergehender Fehler. Wiederholen Sie den Vorgang. Wenden Sie sich an den Support, wenn das Problem weiterhin besteht.
    Wenn die Fehlermeldung die Zeichenfolge „BufferOverflowException“ enthält, ist die Ursache möglicherweise ein vorübergehender Fehler. Wiederholen Sie den Vorgang. Wenden Sie sich an den Support, wenn das Problem weiterhin besteht.
    Wenn die Fehlermeldung die Zeichenfolge "java.lang.ClassCastException:org.apache.hadoop.hive.serde2.io.HiveCharWritable kann nicht in org.apache.hadoop.io.Text umgewandelt werden" enthält, könnte die Ursache ein Typkonvertierungsproblem innerhalb der Java-Laufzeitumgebung sein. In der Regel bedeutet dies, dass die Quelldaten in Java Runtime nicht gut verarbeitet werden können. Dies ist ein Datenproblem. Versuchen Sie, „string“ anstelle von „char“ oder „varchar“ in den Daten im ORC-Format zu verwenden.

Fehlercode: OrcDateTimeExceedLimit

  • Meldung: The Ticks value '%ticks;' for the datetime column must be between valid datetime ticks range -621355968000000000 and 2534022144000000000.

  • Ursache: Wenn der Datetime-Wert "0001-01-01 00:00:00" lautet, kann es unterschiede zwischen dem julianischen Kalender und dem gregorianischen Kalender sein.

  • Empfehlung: Überprüfen Sie den Taktwert, und vermeiden Sie den datetime-Wert „0001-01-01 00:00:00“.

Weitere Informationen zur Problembehandlung finden Sie in diesen Ressourcen: