PySpark のエラークラス#

これは、PySpark によって返される一般的な名前付きエラークラスのリストです。これらのクラスは、error-conditions.json で定義されています。

PySpark のエラーを作成する際、開発者はリストからエラークラスを使用する必要があります。適切なエラークラスが利用できない場合は、リストに新しいクラスを追加してください。詳細については、エラーと例外の寄稿 を参照してください。

APPLICATION_NAME_NOT_SET#

アプリケーション名は設定で設定する必要があります。

ARGUMENT_REQUIRED#

引数 <arg_name> は <condition> の場合に必要です。

ARROW_LEGACY_IPC_FORMAT#

PySpark では Arrow のレガシー IPC フォーマットはサポートされていません。ARROW_PRE_0_15_IPC_FORMAT を解除してください。

ATTRIBUTE_NOT_CALLABLE#

提供されたオブジェクト <obj_name> の属性 <attr_name> は呼び出し可能ではありません。

ATTRIBUTE_NOT_SUPPORTED#

属性 <attr_name> はサポートされていません。

AXIS_LENGTH_MISMATCH#

長さの不一致:期待される軸には <expected_length> 個の要素がありますが、新しい値には <actual_length> 個の要素があります。

BROADCAST_VARIABLE_NOT_LOADED#

ブロードキャスト変数 <variable> はロードされていません。

CALL_BEFORE_INITIALIZE#

<object> を初期化する前に <func_name> を呼び出すことはサポートされていません。

CANNOT_ACCEPT_OBJECT_IN_TYPE#

<data_type> は、タイプ <obj_type> のオブジェクト <obj_name> を受け入れることができません。

CANNOT_ACCESS_TO_DUNDER#

Dunder(ダブルアンダースコア)属性は内部使用のみです。

CANNOT_APPLY_IN_FOR_COLUMN#

カラムに対して 'in' 演算子を適用することはできません。文字列カラムの場合は 'contains' を、配列カラムの場合は 'array_contains' 関数を使用してください。

CANNOT_BE_EMPTY#

少なくとも 1 つの <item> を指定する必要があります。

CANNOT_BE_NONE#

引数 <arg_name> は None にすることはできません。

CANNOT_CONFIGURE_SPARK_CONNECT#

Spark Connect サーバーは設定できません:既存の [<existing_url>]、新しい [<new_url>]。

CANNOT_CONFIGURE_SPARK_CONNECT_MASTER#

Spark Connect サーバーと Spark マスターは一緒に設定できません:Spark マスター [<master_url>]、Spark Connect [<connect_url>]。

CANNOT_CONVERT_COLUMN_INTO_BOOL#

カラムをブール値に変換できません。DataFrame のブール式を構築する際は、'and' には '&'、'or' には '|'、'not' には '~' を使用してください。

CANNOT_CONVERT_TYPE#

<from_type> を <to_type> に変換できません。

CANNOT_DETERMINE_TYPE#

推論後、一部の型を特定できません。

CANNOT_GET_BATCH_ID#

<obj_name> からバッチ ID を取得できませんでした。

CANNOT_INFER_ARRAY_ELEMENT_TYPE#

要素のデータ型を推論できません。空でないリストで None でない値から始まる必要があります。

CANNOT_INFER_EMPTY_SCHEMA#

空のデータセットからスキーマを推論できません。

CANNOT_INFER_SCHEMA_FOR_TYPE#

タイプ <data_type> のスキーマを推論できません。

CANNOT_INFER_TYPE_FOR_FIELD#

フィールド <field_name> の型を推論できませんでした。

CANNOT_MERGE_TYPE#

タイプ <data_type1><data_type2> をマージできません。

CANNOT_OPEN_SOCKET#

ソケットを開けません: <errors>。

CANNOT_PARSE_DATATYPE#

データ型を解析できません。<msg>。

CANNOT_PROVIDE_METADATA#

メタデータは単一のカラムに対してのみ提供できます。

CANNOT_REGISTER_UDTF#

UDTF ‘<name>’ を登録できません:‘UserDefinedTableFunction’ が期待されています。UDTF が正しくクラスとして定義されていることを確認し、udtf() 関数でラップするか、@udtf(…) でアノテートしてください。

CANNOT_SET_TOGETHER#

<arg_list> は一緒に設定すべきではありません。

CANNOT_SPECIFY_RETURN_TYPE_FOR_UDF#

<arg_name> がユーザー定義関数である場合、returnType を指定できませんが、<return_type> が指定されました。

CANNOT_WITHOUT#

<condition2> なしでは <condition1> を実行できません。

CLASSIC_OPERATION_NOT_SUPPORTED_ON_DF#

プロパティまたはメンバー ‘<member>’ の呼び出しは PySpark Classic ではサポートされていません。代わりに Spark Connect を使用してください。

COLLATION_INVALID_PROVIDER#

値 <provider> は正しい照合順序プロバイダーを表していません。サポートされているプロバイダーは次のとおりです:[<supportedProviders>]。

COLUMN_IN_LIST#

<func_name> はリスト内のカラムを許可しません。

CONNECT_URL_ALREADY_DEFINED#

設定できる Spark Connect クライアント URL は 1 つだけですが、既存の [<existing_url>] とは異なる URL [<new_url>] が見つかりました。

CONNECT_URL_NOT_SET#

Spark Connect セッションを作成できません。Spark Connect リモート URL が設定されていません。‘spark.remote’ オプションまたは ‘SPARK_REMOTE’ 環境変数のいずれかを設定して、リモート URL を定義してください。

CONTEXT_ONLY_VALID_ON_DRIVER#

SparkContext をブロードキャスト変数、アクション、または変換で参照しようとしているようです。SparkContext はドライバーでのみ使用でき、ワーカーで実行されるコードでは使用できません。詳細については、SPARK-5063 を参照してください。

CONTEXT_UNAVAILABLE_FOR_REMOTE_CLIENT#

リモートクライアントは SparkContext を作成できません。代わりに SparkSession を作成してください。

DATA_SOURCE_INVALID_RETURN_TYPE#

Python データソース ‘<name>’ からの戻り型 ‘<type>’ はサポートされていません。期待される型:<supported_types>。

DATA_SOURCE_RETURN_SCHEMA_MISMATCH#

‘read’ メソッドからの結果でスキーマの不一致があります。期待されるカラム数:<expected>、見つかったカラム数:<actual>。返された値が必須の出力スキーマと一致していることを確認してください。

DATA_SOURCE_TYPE_MISMATCH#

期待値:<expected>、取得値:<actual>。

DIFFERENT_PANDAS_DATAFRAME#

DataFrame はほぼ等しくありません:左:<left> <left_dtype> 右:<right> <right_dtype>

DIFFERENT_PANDAS_INDEX#

インデックスはほぼ等しくありません:左:<left> <left_dtype> 右:<right> <right_dtype>

DIFFERENT_PANDAS_MULTIINDEX#

MultiIndex はほぼ等しくありません:左:<left> <left_dtype> 右:<right> <right_dtype>

DIFFERENT_PANDAS_SERIES#

Series はほぼ等しくありません:左:<left> <left_dtype> 右:<right> <right_dtype>

DIFFERENT_ROWS#

<error_msg>

DIFFERENT_SCHEMA#

スキーマが一致しません。— actual +++ expected <error_msg>

DISALLOWED_TYPE_FOR_CONTAINER#

引数 <arg_name> (タイプ: <arg_type>) には、[<allowed_types>] の中のタイプのみを含める必要があります。<item_type> が見つかりました。

DUPLICATED_ARTIFACT#

重複アーティファクト:<normalized_path>。アーティファクトは上書きできません。

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT#

Arrow Struct のフィールド名に重複は許可されません。<field_names> が見つかりました。

ERROR_OCCURRED_WHILE_CALLING#

<func_name> の呼び出し中にエラーが発生しました: <error_msg>。

FIELD_DATA_TYPE_UNACCEPTABLE#

<data_type> は、タイプ <obj_type> のオブジェクト <obj> を受け入れることができません。

FIELD_DATA_TYPE_UNACCEPTABLE_WITH_NAME#

<field_name>: <data_type> は、タイプ <obj_type> のオブジェクト <obj> を受け入れることができません。

FIELD_NOT_NULLABLE#

フィールドは NULL 可能ではありませんが、None が見つかりました。

FIELD_NOT_NULLABLE_WITH_NAME#

<field_name>: このフィールドは NULL 可能ではありませんが、None が見つかりました。

FIELD_STRUCT_LENGTH_MISMATCH#

オブジェクトの長さ (<object_length>) がフィールドの長さ (<field_length>) と一致しません。

FIELD_STRUCT_LENGTH_MISMATCH_WITH_NAME#

<field_name>: オブジェクトの長さ (<object_length>) がフィールドの長さ (<field_length>) と一致しません。

FIELD_TYPE_MISMATCH#

<obj> はタイプ <data_type> のインスタンスではありません。

FIELD_TYPE_MISMATCH_WITH_NAME#

<field_name>: <obj> はタイプ <data_type> のインスタンスではありません。

HIGHER_ORDER_FUNCTION_SHOULD_RETURN_COLUMN#

関数 <func_name> は Column を返す必要がありますが、<return_type> が返されました。

INCORRECT_CONF_FOR_PROFILE#

spark.python.profile または spark.python.profile.memory 設定

Python プロファイルを有効にするには true に設定する必要があります。

INDEX_NOT_POSITIVE#

インデックスは正である必要があります。‘<index>’ が見つかりました。

INDEX_OUT_OF_RANGE#

<arg_name> のインデックスが範囲外です。‘<index>’ が見つかりました。

INVALID_ARROW_UDTF_RETURN_TYPE#

Arrow 最適化された Python UDTF の戻り型は ‘pandas.DataFrame’ である必要がありますが、‘<func>’ メソッドはタイプ <return_type> で値 <value> を返しました。

INVALID_BROADCAST_OPERATION#

ブロードキャストはドライバーでのみ <operation> できます。

INVALID_CALL_ON_UNRESOLVED_OBJECT#

未解決のオブジェクトに対する <func_name> の呼び出しが無効です。

INVALID_CONNECT_URL#

Spark Connect の URL が無効です: <detail>

INVALID_INTERVAL_CASTING#

間隔 <start_field> から <end_field> は無効です。

INVALID_ITEM_FOR_CONTAINER#

<arg_name> のすべての項目は <allowed_types> である必要があります。<item_type> が見つかりました。

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS#

照合順序は文字列型にのみ適用できますが、JSON データ型は <jsonType> です。

INVALID_MULTIPLE_ARGUMENT_CONDITIONS#

[{arg_names}] は <condition> にできません。

INVALID_NDARRAY_DIMENSION#

NumPy 配列の入力は <dimensions> 次元である必要があります。

INVALID_NUMBER_OF_DATAFRAMES_IN_GROUP#

グループ <dataframes_in_group> 内の DataFrame の数が無効です。

INVALID_PANDAS_UDF#

関数が無効です: <detail>

INVALID_PANDAS_UDF_TYPE#

<arg_name> は PandasUDFType の値のいずれかである必要があります。<arg_type> が見つかりました。

INVALID_RETURN_TYPE_FOR_ARROW_UDF#

グループ化およびコグループ化された map Arrow UDF は <eval_type> のために StructType を返す必要がありますが、<return_type> が返されました。

INVALID_RETURN_TYPE_FOR_PANDAS_UDF#

Pandas UDF は <eval_type> のために StructType を返す必要がありますが、<return_type> が返されました。

INVALID_SESSION_UUID_ID#

パラメータ値 <arg_name> は有効な UUID 形式である必要があります: <origin>

INVALID_TIMEOUT_TIMESTAMP#

タイムアウトタイムスタンプ (<timestamp>) は現在のウォーターマーク (<watermark>) よりも前であってはなりません。

INVALID_TYPE#

引数 <arg_name> は <arg_type> であるべきではありません。

INVALID_TYPENAME_CALL#

StructField には typeName がありません。代わりにそのタイプに明示的に typeName を使用してください。

INVALID_TYPE_DF_EQUALITY_ARG#

<arg_name> の期待されるタイプは <expected_type> ですが、<actual_type> が見つかりました。

INVALID_UDF_EVAL_TYPE#

UDF の eval タイプは <eval_type> である必要があります。

INVALID_UDTF_BOTH_RETURN_TYPE_AND_ANALYZE#

UDTF ‘<name>’ は無効です。戻り型と 'analyze' 属性の両方を持っています。戻り型または 'analyze' 静的メソッドのいずれか一方を持つように UDTF を更新し、再度試してください。

INVALID_UDTF_EVAL_TYPE#

UDTF ‘<name>’ の eval タイプが無効です。<eval_type> のいずれかである必要があります。

INVALID_UDTF_HANDLER_TYPE#

UDTF は無効です。関数ハンドラーはクラスである必要がありますが、‘<type>’ が見つかりました。関数ハンドラーとしてクラスを指定してください。

INVALID_UDTF_NO_EVAL#

UDTF ‘<name>’ は無効です。必須の 'eval' メソッドを実装していません。‘<name>’ で 'eval' メソッドを実装し、再度試してください。

INVALID_UDTF_RETURN_TYPE#

UDTF ‘<name>’ は無効です。戻り型を指定していないか、必須の 'analyze' 静的メソッドを実装していません。戻り型を指定するか、‘<name>’ で 'analyze' 静的メソッドを実装し、再度試してください。

INVALID_WHEN_USAGE#

when() は when() 関数によって以前に生成された Column にのみ適用でき、otherwise() が適用された後には適用できません。

INVALID_WINDOW_BOUND_TYPE#

ウィンドウ境界のタイプが無効です: <window_bound_type>。

JAVA_GATEWAY_EXITED#

Java ゲートウェイプロセスがポート番号を送信する前に終了しました。

JVM_ATTRIBUTE_NOT_SUPPORTED#

属性 <attr_name> は Spark Connect ではサポートされていません。JVM に依存するためです。この属性を使用する必要がある場合は、セッションを作成する際に Spark Connect を使用しないでください。詳細については、通常の Spark Session の作成方法について https://spark.dokyumento.jp/docs/latest/sql-getting-started.html#starting-point-sparksession を参照してください。

KEY_NOT_EXISTS#

キー <key> は存在しません。

KEY_VALUE_PAIR_REQUIRED#

キーと値のペア、またはペアのリストが必要です。

LENGTH_SHOULD_BE_THE_SAME#

<arg1> と <arg2> は同じ長さである必要があります。<arg1_length> と <arg2_length> が見つかりました。

MALFORMED_VARIANT#

バリアントバイナリの形式が不正です。データソースが有効であることを確認してください。

MASTER_URL_INVALID#

マスターは yarn であるか、spark、k8s、または local で始まる必要があります。

MASTER_URL_NOT_SET#

マスター URL は設定で設定する必要があります。

MEMORY_PROFILE_INVALID_SOURCE#

メモリプロファイラーは、行番号のあるエディタでのみ使用できます。

MISSING_LIBRARY_FOR_PROFILER#

メモリプロファイリングを有効にするには、クラスターに 'memory_profiler' ライブラリをインストールしてください。

MISSING_VALID_PLAN#

<operator> の引数には有効なプランが含まれていません。

MIXED_TYPE_REPLACEMENT#

混合タイプ置換はサポートされていません。

NEGATIVE_VALUE#

<arg_name> の値は 0 以上である必要があります。‘<arg_value>’ が見つかりました。

NOT_BOOL#

引数 <arg_name> は bool である必要があります。<arg_type> が見つかりました。

NOT_BOOL_OR_DICT_OR_FLOAT_OR_INT_OR_LIST_OR_STR_OR_TUPLE#

引数 <arg_name> は bool、dict、float、int、str、または tuple である必要があります。<arg_type> が見つかりました。

NOT_BOOL_OR_DICT_OR_FLOAT_OR_INT_OR_STR#

引数 <arg_name> は bool、dict、float、int、または str である必要があります。<arg_type> が見つかりました。

NOT_BOOL_OR_FLOAT_OR_INT#

引数 <arg_name> は bool、float、または int である必要があります。<arg_type> が見つかりました。

NOT_BOOL_OR_FLOAT_OR_INT_OR_LIST_OR_NONE_OR_STR_OR_TUPLE#

引数 <arg_name> は bool、float、int、list、None、str、または tuple である必要があります。<arg_type> が見つかりました。

NOT_BOOL_OR_FLOAT_OR_INT_OR_STR#

引数 <arg_name> は bool、float、int、または str である必要があります。<arg_type> が見つかりました。

NOT_BOOL_OR_LIST#

引数 <arg_name> は bool または list である必要があります。<arg_type> が見つかりました。

NOT_BOOL_OR_STR#

引数 <arg_name> は bool または str である必要があります。<arg_type> が見つかりました。

NOT_CALLABLE#

引数 <arg_name> は呼び出し可能である必要があります。<arg_type> が見つかりました。

NOT_COLUMN#

引数 <arg_name> は Column である必要があります。<arg_type> が見つかりました。

NOT_COLUMN_OR_DATATYPE_OR_STR#

引数 <arg_name> は Column、str、または DataType である必要がありますが、<arg_type> が見つかりました。

NOT_COLUMN_OR_FLOAT_OR_INT_OR_LIST_OR_STR#

引数 <arg_name> は Column、float、integer、list、または string である必要があります。<arg_type> が見つかりました。

NOT_COLUMN_OR_INT#

引数 <arg_name> は Column または int である必要があります。<arg_type> が見つかりました。

NOT_COLUMN_OR_INT_OR_LIST_OR_STR_OR_TUPLE#

引数 <arg_name> は Column、int、list、str、または tuple である必要があります。<arg_type> が見つかりました。

NOT_COLUMN_OR_INT_OR_STR#

引数 <arg_name> は Column、int、または str である必要があります。<arg_type> が見つかりました。

NOT_COLUMN_OR_LIST_OR_STR#

引数 <arg_name> は Column、list、または str である必要があります。<arg_type> が見つかりました。

NOT_COLUMN_OR_STR#

引数 <arg_name> は Column または str である必要があります。<arg_type> が見つかりました。

NOT_COLUMN_OR_STR_OR_STRUCT#

引数 <arg_name> は StructType、Column、または str である必要があります。<arg_type> が見つかりました。

NOT_DATAFRAME#

引数 <arg_name> は DataFrame である必要があります。<arg_type> が見つかりました。

NOT_DATATYPE_OR_STR#

引数 <arg_name> は DataType または str である必要があります。<arg_type> が見つかりました。

NOT_DICT#

引数 <arg_name> は dict である必要があります。<arg_type> が見つかりました。

NOT_EXPRESSION#

引数 <arg_name> は Expression である必要があります。<arg_type> が見つかりました。

NOT_FLOAT_OR_INT#

引数 <arg_name> は float または int である必要があります。<arg_type> が見つかりました。

NOT_FLOAT_OR_INT_OR_LIST_OR_STR#

引数 <arg_name> は float、int、list、または str である必要があります。<arg_type> が見つかりました。

NOT_IMPLEMENTED#

<feature> は実装されていません。

NOT_INT#

引数 <arg_name> は int である必要があります。<arg_type> が見つかりました。

NOT_INT_OR_SLICE_OR_STR#

引数 <arg_name> は int、slice、または str である必要があります。<arg_type> が見つかりました。

NOT_IN_BARRIER_STAGE#

バリアステージではありません。

NOT_ITERABLE#

<objectName> は反復可能ではありません。

NOT_LIST#

引数 <arg_name> は list である必要があります。<arg_type> が見つかりました。

NOT_LIST_OF_COLUMN#

引数 <arg_name> は list[Column] である必要があります。

NOT_LIST_OF_COLUMN_OR_STR#

引数 <arg_name> は list[Column] である必要があります。

NOT_LIST_OF_FLOAT_OR_INT#

引数 <arg_name> は list[float, int] である必要があります。<arg_type> が見つかりました。

NOT_LIST_OF_STR#

引数 <arg_name> は list[str] である必要があります。<arg_type> が見つかりました。

NOT_LIST_OR_NONE_OR_STRUCT#

引数 <arg_name> は list、None、または StructType である必要があります。<arg_type> が見つかりました。

NOT_LIST_OR_STR_OR_TUPLE#

引数 <arg_name> は list、str、または tuple である必要があります。<arg_type> が見つかりました。

NOT_LIST_OR_TUPLE#

引数 <arg_name> は list または tuple である必要があります。<arg_type> が見つかりました。

NOT_NUMERIC_COLUMNS#

数値集計関数は数値カラムにのみ適用できます。<invalid_columns> が見つかりました。

NOT_OBSERVATION_OR_STR#

引数 <arg_name> は Observation または str である必要があります。<arg_type> が見つかりました。

NOT_SAME_TYPE#

引数 <arg_name1><arg_name2> は同じタイプである必要があります。<arg_type1> と <arg_type2> が見つかりました。

NOT_STR#

引数 <arg_name> は str である必要があります。<arg_type> が見つかりました。

NOT_STRUCT#

引数 <arg_name> は struct タイプである必要があります。<arg_type> が見つかりました。

NOT_STR_OR_LIST_OF_RDD#

引数 <arg_name> は str または list[RDD] である必要があります。<arg_type> が見つかりました。

NOT_STR_OR_STRUCT#

引数 <arg_name> は str または struct タイプである必要があります。<arg_type> が見つかりました。

NOT_WINDOWSPEC#

引数 <arg_name> は WindowSpec である必要があります。<arg_type> が見つかりました。

NO_ACTIVE_EXCEPTION#

アクティブな例外はありません。

NO_ACTIVE_OR_DEFAULT_SESSION#

アクティブまたはデフォルトの Spark セッションが見つかりません。コードを実行する前に、新しい Spark セッションを作成してください。

NO_ACTIVE_SESSION#

アクティブな Spark セッションが見つかりません。コードを実行する前に、新しい Spark セッションを作成してください。

NO_OBSERVE_BEFORE_GET#

DataFrame.observe を呼び出して観測してから get を呼び出す必要があります。

NO_SCHEMA_AND_DRIVER_DEFAULT_SCHEME#

<arg_name> がスキームのないパスであることのみを許可し、Spark ドライバーはデフォルトのスキームを使用して宛先ファイルシステムを決定します。

ONLY_ALLOWED_FOR_SINGLE_COLUMN#

引数 <arg_name> は単一のカラムに対してのみ提供できます。

ONLY_ALLOW_SINGLE_TRIGGER#

トリガーは 1 つのみ許可されます。

ONLY_SUPPORTED_WITH_SPARK_CONNECT#

<feature> は Spark Connect でのみサポートされています。ただし、現在の Spark セッションは Spark Connect を使用していません。

PACKAGE_NOT_INSTALLED#

<package_name> >= <minimum_version> をインストールする必要がありますが、見つかりませんでした。

PANDAS_API_ON_SPARK_FAIL_ON_ANSI_MODE#

Pandas API on Spark は ANSI モードでは正常に動作しません。Spark 設定 'spark.sql.ansi.enabled' を false に設定してください。または、Pandas on Spark オプション 'compute.fail_on_ansi_mode' を False に設定して強制的に動作させることもできますが、予期しない動作が発生する可能性があります。

PANDAS_UDF_OUTPUT_EXCEEDS_INPUT_ROWS#

Pandas SCALAR_ITER UDF は入力行よりも多くの行を出力します。

PIPE_FUNCTION_EXITED#

パイプ関数 <func_name> がエラーコード <error_code> で終了しました。

PLOT_INVALID_TYPE_COLUMN#

プロットの場合、カラム <col_name> は <valid_types> のいずれかである必要があります。<col_type> が見つかりました。

PLOT_NOT_NUMERIC_COLUMN_ARGUMENT#

プロットの場合、引数 <arg_name> は数値カラムである必要があります。<arg_type> が見つかりました。

PYTHON_HASH_SEED_NOT_SET#

文字列のハッシュのランダム性は、PYTHONHASHSEED を介して無効にする必要があります。

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR#

Python ストリーミングデータソースの実行中に失敗しました: <msg>

PYTHON_VERSION_MISMATCH#

ワーカーの Python バージョンはドライバーのバージョンと異なります: <worker_version> vs <driver_version>。PySpark は異なるマイナーバージョンでは実行できません。環境変数 PYSPARK_PYTHON と PYSPARK_DRIVER_PYTHON が正しく設定されていることを確認してください。

RDD_TRANSFORM_ONLY_VALID_ON_DRIVER#

RDD をブロードキャストしようとしているか、アクションまたは変換から RDD を参照しようとしているようです。RDD の変換およびアクションはドライバーからのみ呼び出すことができ、他の変換内からは呼び出せません。たとえば、`rdd1.map(lambda x: rdd2.values.count() * x)` は無効です。これは、values 変換および count アクションを rdd1.map 変換内で実行できないためです。詳細については、SPARK-5063 を参照してください。

READ_ONLY#

<object> は読み取り専用です。

RESPONSE_ALREADY_RECEIVED#

サーバーから応答が既に受信されていますが、OPERATION_NOT_FOUND です。

RESULT_COLUMNS_MISMATCH_FOR_ARROW_UDF#

返された pyarrow.Table のカラム名が指定されたスキーマと一致しません。<missing><extra>

RESULT_COLUMNS_MISMATCH_FOR_PANDAS_UDF#

返された pandas.DataFrame のカラム名が指定されたスキーマと一致しません。<missing><extra>

RESULT_LENGTH_MISMATCH_FOR_PANDAS_UDF#

返された pandas.DataFrame のカラム数が指定されたスキーマと一致しません。期待値: <expected> 取得値: <actual>

RESULT_LENGTH_MISMATCH_FOR_SCALAR_ITER_PANDAS_UDF#

Scalar iterator pandas UDF の出力の長さは入力と同じである必要があります。しかし、出力の長さは <output_length> で、入力の長さは <input_length> でした。

RESULT_TYPE_MISMATCH_FOR_ARROW_UDF#

カラムのデータ型に不一致があります: <mismatch>。

RETRIES_EXCEEDED#

最大リトライ回数を超えました。

REUSE_OBSERVATION#

Observation は DataFrame に対して 1 回しか使用できません。

SCHEMA_MISMATCH_FOR_PANDAS_UDF#

pandas_udf から返された結果ベクトルの長さが指定されたスキーマと一致しません。期待値: <expected>, 取得値: <actual>。

SESSION_ALREADY_EXIST#

通常の Spark セッションが既に実行されているため、リモート Spark セッションを開始できません。

SESSION_NEED_CONN_STR_OR_BUILDER#

新しい SparkSession を作成するには、接続文字列または channelBuilder のいずれかが必要です(相互排他的)。

SESSION_NOT_SAME#

両方の Dataset は同じ SparkSession に属する必要があります。

SESSION_OR_CONTEXT_EXISTS#

既存の Spark Session または Spark Context は存在しないはずです。

SESSION_OR_CONTEXT_NOT_EXISTS#

SparkContext または SparkSession を先に作成する必要があります。

SLICE_WITH_STEP#

ステップを使用したスライスはサポートされていません。

STATE_NOT_EXISTS#

状態が定義されていないか、既に削除されています。

STOP_ITERATION_OCCURRED#

ユーザーコードから StopIteration が発生しました。タスクは失敗します: <exc>

STOP_ITERATION_OCCURRED_FROM_SCALAR_ITER_PANDAS_UDF#

pandas iterator UDF は入力イテレータを使い切る必要があります。

STREAMING_CONNECT_SERIALIZATION_ERROR#

関数 <name> をシリアライズできません。Spark セッション、または関数外で定義された DataFrame、あるいは Spark セッションを含むオブジェクトにアクセスした場合、Spark Connect では許可されないことに注意してください。foreachBatch の場合、df.sparkSession を使用して Spark セッションにアクセスしてください。ここで dfforeachBatch 関数の最初のパラメータです。StreamingQueryListener の場合、self.spark を使用して Spark セッションにアクセスしてください。詳細については、foreachBatch および StreamingQueryListener の PySpark ドキュメントを参照してください。

TEST_CLASS_NOT_COMPILED#

<test_class_path> が存在しません。Spark SQL テストクラスはコンパイルされていません。

TOO_MANY_VALUES#

<item> の期待値は <expected> ですが、<actual> が見つかりました。

TYPE_HINT_SHOULD_BE_SPECIFIED#

<target> の型ヒントを指定する必要がありますが、<sig> が見つかりました。

UDF_RETURN_TYPE#

ユーザー定義関数の戻り型は <expected> である必要がありますが、<actual> になっています。

UDTF_ARROW_TYPE_CAST_ERROR#

カラム ‘<col_name>’ のタイプ ‘<col_type>’ の出力値を、指定されたカラムの戻りタイプ ‘<arrow_type>’ に変換できません。データ型が一致するかどうかを確認し、再度試してください。

UDTF_CONSTRUCTOR_INVALID_IMPLEMENTS_ANALYZE_METHOD#

ユーザー定義テーブル関数 ‘<name>’ の評価に失敗しました。これは、コンストラクタが無効であるためです。関数は 'analyze' メソッドを実装していますが、コンストラクタには 2 つを超える引数('self' 参照を含む)があります。コンストラクタが正確に 1 つの 'self' 引数、または 1 つの 'self' 引数と 'analyze' の結果のための別の引数を受け入れるようにテーブル関数を更新し、クエリを再度試してください。

UDTF_CONSTRUCTOR_INVALID_NO_ANALYZE_METHOD#

ユーザー定義テーブル関数 ‘<name>’ の評価に失敗しました。これは、コンストラクタが無効であるためです。関数は 'analyze' メソッドを実装しておらず、コンストラクタには 1 つを超える引数('self' 参照を含む)があります。コンストラクタが正確に 1 つの 'self' 引数を受け入れるようにテーブル関数を更新し、再度試してください。

UDTF_EVAL_METHOD_ARGUMENTS_DO_NOT_MATCH_SIGNATURE#

ユーザー定義テーブル関数 ‘<name>’ の評価に失敗しました。これは、関数引数が 'eval' メソッドの期待されるシグネチャと一致しなかったためです(<reason>)。このテーブル関数呼び出しが期待されるシグネチャと一致する引数を提供するようにクエリを更新するか、'eval' メソッドが提供された引数を受け入れるようにテーブル関数を更新してから、クエリを再度試してください。

UDTF_EXEC_ERROR#

ユーザー定義テーブル関数で ‘<method_name>’ メソッド中にエラーが発生しました: <error>

UDTF_INVALID_OUTPUT_ROW_TYPE#

UDTF の ‘<func>’ メソッドの個々の出力行のタイプが無効です。各行はタプル、リスト、または辞書である必要がありますが、‘<type>’ が見つかりました。出力行が正しいタイプであることを確認してください。

UDTF_RETURN_NOT_ITERABLE#

UDTF の ‘<func>’ メソッドの戻り値が無効です。反復可能(例:ジェネレータまたはリスト)である必要がありますが、‘<type>’ が見つかりました。UDTF がこれらのタイプのいずれかを返すことを確認してください。

UDTF_RETURN_SCHEMA_MISMATCH#

結果のカラム数が指定されたスキーマと一致しません。期待されるカラム数: <expected>, 実際カラム数: <actual>。‘<func>’ メソッドによって返される値が、出力スキーマで指定されたカラム数と同じであることを確認してください。

UDTF_RETURN_TYPE_MISMATCH#

UDTF ‘<name>’ の戻りタイプの不一致。‘StructType’ が期待されましたが、‘<return_type>’ が見つかりました。戻り型が正しくフォーマットされた StructType であることを確認してください。

UDTF_SERIALIZATION_ERROR#

UDTF ‘<name>’ をシリアライズできません: <message>

UNEXPECTED_RESPONSE_FROM_SERVER#

イテレータサーバーからの予期しない応答。

UNEXPECTED_TUPLE_WITH_STRUCT#

StructType で予期しないタプル <tuple>。

UNKNOWN_EXPLAIN_MODE#

不明な explain モード: ‘<explain_mode>’。受け入れられる explain モードは ‘simple’, ‘extended’, ‘codegen’, ‘cost’, ‘formatted’ です。

UNKNOWN_INTERRUPT_TYPE#

不明な割り込みタイプ: ‘<interrupt_type>’。受け入れられる割り込みタイプは ‘all’ です。

UNKNOWN_RESPONSE#

不明な応答: <response>。

UNKNOWN_VALUE_FOR#

<var> の値が不明です。

UNSUPPORTED_DATA_TYPE#

データ型 <data_type> はサポートされていません。

UNSUPPORTED_DATA_TYPE_FOR_ARROW#

単一のデータ型 <data_type> は Arrow ではサポートされていません。

UNSUPPORTED_DATA_TYPE_FOR_ARROW_CONVERSION#

<data_type> は Arrow への変換ではサポートされていません。

UNSUPPORTED_DATA_TYPE_FOR_ARROW_VERSION#

<data_type> は pyarrow 2.0.0 以降でのみサポートされています。

UNSUPPORTED_JOIN_TYPE#

サポートされていない結合タイプ: ‘<typ>’。サポートされている結合タイプは次のとおりです: <supported>。

UNSUPPORTED_LITERAL#

リテラル ‘<literal>’ はサポートされていません。

UNSUPPORTED_LOCAL_CONNECTION_STRING#

local 接続文字列を使用して新しい SparkSession を作成することはサポートされていません。

UNSUPPORTED_NUMPY_ARRAY_SCALAR#

配列スカラー ‘<dtype>’ のタイプはサポートされていません。

UNSUPPORTED_OPERATION#

<operation> はサポートされていません。

UNSUPPORTED_PACKAGE_VERSION#

<package_name> >= <minimum_version> をインストールする必要がありますが、現在のバージョンは <current_version> です。

UNSUPPORTED_PARAM_TYPE_FOR_HIGHER_ORDER_FUNCTION#

関数 <func_name> は POSITIONAL または POSITIONAL OR KEYWORD 引数のみを使用する必要があります。

UNSUPPORTED_PIE_PLOT_PARAM#

円グラフは、y カラムまたは subplots=True のいずれかを必要とします。

UNSUPPORTED_PLOT_BACKEND#

<backend> はサポートされていません。<supported_backends> の値のいずれかである必要があります。

UNSUPPORTED_PLOT_BACKEND_PARAM#

<backend> は <value> に設定された <param> をサポートしていません。<supported_values> の値のいずれかである必要があります。

UNSUPPORTED_SIGNATURE#

サポートされていないシグネチャ: <signature>。

UNSUPPORTED_WITH_ARROW_OPTIMIZATION#

<feature> は、Python UDF で Arrow 最適化が有効になっている状態ではサポートされていません。回避策として 'spark.sql.execution.pythonUDF.arrow.enabled' を無効にしてください。

VALUE_ALLOWED#

<arg_name> の値は <disallowed_value> を許可しません。

VALUE_NOT_ACCESSIBLE#

<value> はタスク内でアクセスできません。

VALUE_NOT_ALLOWED#

<arg_name> の値は次の値のいずれかである必要があります: <allowed_values>。

VALUE_NOT_ANY_OR_ALL#

<arg_name> の値は 'any' または 'all' である必要があります。‘<arg_value>’ が見つかりました。

VALUE_NOT_BETWEEN#

<arg_name> の値は <min> と <max> の間である必要があります。

VALUE_NOT_NON_EMPTY_STR#

<arg_name> の値は空でない文字列である必要があります。‘<arg_value>’ が見つかりました。

VALUE_NOT_PEARSON#

<arg_name> の値は 'pearson' のみサポートしています。‘<arg_value>’ が見つかりました。

VALUE_NOT_PLAIN_COLUMN_REFERENCE#

<field_name> の値 <val> は、df.col または col('column') のような単純なカラム参照である必要があります。

VALUE_NOT_POSITIVE#

<arg_name> の値は正である必要があります。‘<arg_value>’ が見つかりました。

VALUE_NOT_TRUE#

<arg_name> の値は True である必要があります。‘<arg_value>’ が見つかりました。

VALUE_OUT_OF_BOUNDS#

<arg_name> の値は <lower_bound> と <upper_bound> の間(両端を含む)である必要があります。<actual> が見つかりました。

WRONG_NUM_ARGS_FOR_HIGHER_ORDER_FUNCTION#

関数 <func_name> は 1 から 3 個の引数を取る必要がありますが、提供された関数は <num_args> 個の引数を取ります。

WRONG_NUM_COLUMNS#

関数 <func_name> は少なくとも <num_cols> 個のカラムを取る必要があります。

ZERO_INDEX#

インデックスはゼロ以外である必要があります。