エラー条件

これは、Spark SQL によって返される可能性のあるエラー状態と条件のリストです。

エラー状態 / SQLSTATE エラー条件 & サブ条件 メッセージ
07001 # ALL_PARAMETERS_MUST_BE_NAMED

名前付きパラメータクエリを使用するには、すべてのパラメータに名前を付ける必要があります。名前が不足しているパラメータ: <exprs>

07501 # INVALID_STATEMENT_FOR_EXECUTE_INTO

EXECUTE IMMEDIATE の INTO 句はクエリに対してのみ有効ですが、指定されたステートメントはクエリではありません: <sqlString>

07501 # NESTED_EXECUTE_IMMEDIATE

ネストされた EXECUTE IMMEDIATE コマンドは許可されていません。提供された SQL クエリ (<sqlString>) に別の EXECUTE IMMEDIATE コマンドが含まれていないことを確認してください。

07501 # SQL_SCRIPT_IN_EXECUTE_IMMEDIATE

EXECUTE IMMEDIATE コマンド内の SQL スクリプトは許可されていません。提供された SQL クエリ (<sqlString>) が SQL スクリプトではないことを確認してください。sql_string が正しくフォーマットされた SQL ステートメントであり、BEGIN および END が含まれていないことを確認してください。

0A000 # CANNOT_INVOKE_IN_TRANSFORMATIONS

Dataset の変換とアクションは、ドライバーからのみ呼び出すことができ、他の Dataset の変換内からは呼び出すことはできません。たとえば、dataset1.map(x => dataset2.values.count() * x) は無効です。なぜなら、values 変換と count アクションは dataset1.map 変換内で実行できないためです。詳細については、SPARK-28702 を参照してください。

0A000 # CANNOT_UPDATE_FIELD

<table> のフィールド <fieldName> の型を更新できません

# ARRAY_TYPE

<fieldName>.element を更新して要素を更新してください。

# INTERVAL_TYPE

フィールドを更新して間隔を更新してください。

# MAP_TYPE

<fieldName>.key または <fieldName>.value を更新してマップを更新してください。

# STRUCT_TYPE

フィールドを更新して構造体を更新してください。

# USER_DEFINED_TYPE

UserDefinedType[<udtSql>] のフィールドを更新して UserDefinedType を更新してください。

0A000 # CLASS_UNSUPPORTED_BY_MAP_OBJECTS

MapObjects は、結果のコレクションとしてクラス <cls> をサポートしていません。

0A000 # COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

フィールド <pos> の一部の値は、列配列の型と互換性がありません。期待される型: <type>

0A000 # CONCURRENT_QUERY

このクエリの別のインスタンスが、同時実行セッションによって開始されました。

0A000 # CORRUPTED_CATALOG_FUNCTION

カタログの破損した関数情報のため、カタログ関数 '<identifier>' を SQL 関数に変換できません。関数が SQL 関数でない場合は、クラス名 '<className>' がロード可能であることを確認してください。

0A000 # CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

永続ビュー <name> を、式 <attr> のエイリアスを明示的に割り当てることなく作成することは許可されていません。

0A000 # DESCRIBE_JSON_NOT_EXTENDED

DESCRIBE TABLE ... AS JSON は [EXTENDED|FORMATTED] が指定されている場合にのみサポートされます。たとえば、DESCRIBE EXTENDED <tableName> AS JSON はサポートされていますが、DESCRIBE <tableName> AS JSON はサポートされていません。

0A000 # DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

DISTINCT ウィンドウ関数はサポートされていません: <windowExpr>

0A000 # EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

<format> データソースは、空またはネストされた空のスキーマの書き込みをサポートしていません。データスキーマに少なくとも 1 つ以上の列があることを確認してください。

0A000 # INVALID_PANDAS_UDF_PLACEMENT

グループ集計 pandas UDF <functionList> は、他の非 pandas 集計関数と同時に呼び出すことはできません。

0A000 # INVALID_PARTITION_COLUMN_DATA_TYPE

パーティション列に <type> を使用することはできません。

0A000 # MULTI_UDF_INTERFACE_ERROR

複数の UDF インターフェースを実装することは許可されていません。UDF クラス: <className>

0A000 # NAMED_PARAMETER_SUPPORT_DISABLED

名前付き引数参照がここで有効になっていないため、関数 <functionName> を呼び出すことはできません。この場合、名前付き引数参照は <argument> でした。機能を有効にするには、「spark.sql.allowNamedFunctionArguments」を「true」に設定してください。

0A000 # NEGATIVE_SCALE_DISALLOWED

負のスケールは許可されていません: '<scale>'。それを許可するには、設定 <sqlConf> を「true」に設定してください。

0A000 # NOT_SUPPORTED_CHANGE_COLUMN

ALTER TABLE ALTER/CHANGE COLUMN は、<table> の列 <originName> を型 <originType> から <newName> に型 <newType> に変更することはサポートされていません。

0A000 # NOT_SUPPORTED_CHANGE_SAME_COLUMN

ALTER TABLE ALTER/CHANGE COLUMN は、同じコマンド内で <table> の列 <fieldName> およびそのネストされたフィールドを複数回変更することはサポートされていません。

0A000 # NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

<cmd> は v2 テーブルではサポートされていません。

0A000 # NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

<cmd> はサポートされていません。「spark.sql.catalogImplementation」を「hive」に設定すると、有効にできます。

0A000 # NOT_SUPPORTED_IN_JDBC_CATALOG

JDBC カタログではサポートされていないコマンド

# COMMAND

<cmd>

# COMMAND_WITH_PROPERTY

プロパティ <property> を持つ <cmd>

0A000 # PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

非グルーピング式 <expr> が |> AGGREGATE パイプ演算子の引数として指定されましたが、集計関数が含まれていません。集計関数を含めるように更新してから、クエリを再試行してください。

0A000 # PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

パイプ演算子 |> <clause> 句を使用している場合、集計関数 <expr> は許可されません。代わりに |> AGGREGATE 句を使用してください。

0A000 # SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

相関スカラーサブクエリ '<sqlExpr>' は GROUP BY にも集計関数にも含まれていません。序数位置を使用して GROUP BY に追加するか、値が何であっても気にしない場合は first() (または first_value) でラップしてください。

0A000 # STAR_GROUP_BY_POS

序数位置で GROUP BY を使用している場合、SELECT リストでアスタリスク (*) は許可されません。

0A000 # TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

TABLE 引数を持つ SQL ユーザー定義関数 <functionName><action> することはできません。この機能はまだ実装されていません。

0A000 # UNSUPPORTED_ADD_FILE

ファイルの追加はサポートされていません。

# DIRECTORY

ファイル <path> はディレクトリです。「spark.sql.legacy.addSingleFileInAddFile」を「false」に設定することを検討してください。

# LOCAL_DIRECTORY

非ローカルマスターモードでは、ローカルディレクトリ <path> はサポートされていません。

0A000 # UNSUPPORTED_ARROWTYPE

サポートされていない Arrow 型: <typeName>

0A000 # UNSUPPORTED_CALL

クラス <className> のメソッド "<methodName>" を呼び出すことはできません。

# FIELD_INDEX

フィールド <fieldName> のインデックスを取得するには、行にスキーマが必要です。

# WITHOUT_SUGGESTION
0A000 # UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

char/varchar 型はテーブルスキーマで使用できません。Spark 3.0 以前と同様に文字列型として扱う場合は、「spark.sql.legacy.charVarcharAsString」を「true」に設定してください。

0A000 # UNSUPPORTED_COLLATION

照合順序 <collationName> はサポートされていません

# FOR_FUNCTION

関数 <functionName>。別の照合順序を試してください。

0A000 # UNSUPPORTED_CONNECT_FEATURE

Spark Connect ではサポートされていない機能

# DATASET_QUERY_EXECUTION

Dataset クエリ実行へのアクセス。これはサーバーサイド開発者 API です。

# RDD

Resilient Distributed Datasets (RDD)。

# SESSION_BASE_RELATION_TO_DATAFRAME

SparkSession 'baseRelationToDataFrame' を呼び出しています。これはサーバーサイド開発者 API です。

# SESSION_EXPERIMENTAL_METHODS

SparkSession Experimental (メソッド) へのアクセス。これはサーバーサイド開発者 API です。

# SESSION_LISTENER_MANAGER

SparkSession Listener Manager へのアクセス。これはサーバーサイド開発者 API です。

# SESSION_SESSION_STATE

SparkSession Session State へのアクセス。これはサーバーサイド開発者 API です。

# SESSION_SHARED_STATE

SparkSession Shared State へのアクセス。これはサーバーサイド開発者 API です。

# SESSION_SPARK_CONTEXT

SparkContext へのアクセス。

0A000 # UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

ファイルに対する直接クエリでサポートされていないデータソースの種類: <dataSourceType>

0A000 # UNSUPPORTED_DATATYPE

サポートされていないデータ型: <typeName>

0A000 # UNSUPPORTED_DATA_SOURCE_SAVE_MODE

データソース "<source>" は <createMode> モードで書き込むことはできません。「Append」または「Overwrite」モードを使用してください。

0A000 # UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

<format> データソースは、型 <columnType> の列 <columnName> をサポートしていません。

0A000 # UNSUPPORTED_DATA_TYPE_FOR_ENCODER

<dataType> のエンコーダーを作成できません。UDF または DataFrame の出力データ型を変更してください。

0A000 # UNSUPPORTED_DEFAULT_VALUE

DEFAULT 列の値はサポートされていません。

# WITHOUT_SUGGESTION
# WITH_SUGGESTION

「spark.sql.defaultColumn.enabled」を「true」に設定して有効にします。

0A000 # UNSUPPORTED_DESERIALIZER

デシリアライザーはサポートされていません。

# DATA_TYPE_MISMATCH

<desiredType> フィールドが必要ですが、<dataType> が見つかりました。

# FIELD_NUMBER_MISMATCH

<schema> を Tuple<ordinal> にマッピングしようとしましたが、フィールド数が一致しないため失敗しました。

0A000 # UNSUPPORTED_FEATURE

この機能はサポートされていません。

# AES_MODE

<functionName> 関数によるパディング <padding> を持つ AES-<mode>

# AES_MODE_AAD

AES-<mode> を持つ <functionName> は、追加認証データ (AAD) をサポートしていません。

# AES_MODE_IV

AES-<mode> を持つ <functionName> は、初期化ベクトル (IV) をサポートしていません。

# ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE

データソース API で作成されたテーブル <tableName> では、ALTER TABLE SET SERDE はサポートされていません。外部 Hive テーブルの使用を検討するか、テーブル形式に適したオプションでテーブルプロパティを更新してください。

# ANALYZE_UNCACHED_TEMP_VIEW

ANALYZE TABLE FOR COLUMNS コマンドは、既にキャッシュされている一時ビューに対して操作できます。ビュー <viewName> をキャッシュすることを検討してください。

# ANALYZE_UNSUPPORTED_COLUMN_TYPE

ANALYZE TABLE FOR COLUMNS コマンドは、テーブル <tableName> の列 <columnName> の型 <columnType> をサポートしていません。

# ANALYZE_VIEW

ANALYZE TABLE コマンドはビューをサポートしていません。

# CATALOG_OPERATION

カタログ <catalogName><operation> をサポートしていません。

# CLAUSE_WITH_PIPE_OPERATORS

SQL パイプ演算子構文 (|>) は <clauses> をサポートしていません。

# COLLATIONS_IN_MAP_KEYS

マップのキーに対する照合順序付き文字列。

# COMBINATION_QUERY_RESULT_CLAUSES

ORDER BY/SORT BY/DISTRIBUTE BY/CLUSTER BY の組み合わせ。

# COMMENT_NAMESPACE

名前空間 <namespace> にコメントを付けます。

# CONTINUE_EXCEPTION_HANDLER

CONTINUE 例外ハンドラーはサポートされていません。EXIT ハンドラーを使用してください。

# DESC_TABLE_COLUMN_JSON

DESC TABLE COLUMN AS JSON は個々の列ではサポートされていません。

# DESC_TABLE_COLUMN_PARTITION

特定のパーティションに対する DESC TABLE COLUMN。

# DROP_DATABASE

デフォルトデータベース <database> を削除します。

# DROP_NAMESPACE

名前空間 <namespace> を削除します。

# HIVE_TABLE_TYPE

<tableName> は Hive <tableType> です。

# HIVE_WITH_ANSI_INTERVALS

ANSI 間隔を持つ Hive テーブル <tableName>

# INSERT_PARTITION_SPEC_IF_NOT_EXISTS

PARTITION 仕様で IF NOT EXISTS を使用して <tableName> に INSERT INTO します。

# LAMBDA_FUNCTION_WITH_PYTHON_UDF

高階関数での Python UDF <funcName> を持つラムダ関数。

# LATERAL_COLUMN_ALIAS_IN_AGGREGATE_FUNC

集計関数 <aggFunc> で、lateral 列エイリアス <lca> を参照しています。

# LATERAL_COLUMN_ALIAS_IN_AGGREGATE_WITH_WINDOW_AND_HAVING

ウィンドウ式と HAVING 句の両方で、集計クエリで lateral 列エイリアス <lca> を参照しています。HAVING 句を削除するか、SELECT リストの lateral エイリアス参照を削除して、集計クエリを書き直してください。

# LATERAL_COLUMN_ALIAS_IN_GENERATOR

ジェネレータ式 <generatorExpr> で、lateral 列エイリアス <lca> を参照しています。

# LATERAL_COLUMN_ALIAS_IN_GROUP_BY

GROUP BY エイリアス/ALL を介した lateral 列エイリアスの参照は、まだサポートされていません。

# LATERAL_COLUMN_ALIAS_IN_WINDOW

ウィンドウ式 <windowExpr> で、lateral 列エイリアス <lca> を参照しています。

# LATERAL_JOIN_USING

LATERAL 相関を使用した JOIN USING。

# LITERAL_TYPE

<type> 型の '<value>' のリテラル。

# MULTIPLE_BUCKET_TRANSFORMS

複数のバケット変換。

# MULTI_ACTION_ALTER

テーブル <tableName> をホストするターゲット JDBC サーバーは、複数のアクションを持つ ALTER TABLE をサポートしていません。このエラーを回避するには、ALTER TABLE を個々のアクションに分割してください。

# OBJECT_LEVEL_COLLATIONS

指定されたオブジェクトのデフォルトの照合順序。

# ORC_TYPE_CAST

Orc の <orcType> をデータ型 <toType> に変換できません。

# OVERWRITE_BY_SUBQUERY

サブクエリ条件による INSERT OVERWRITE。

# PANDAS_UDAF_IN_PIVOT

PIVOT 句での Pandas ユーザー定義集計関数。

# PARAMETER_MARKER_IN_UNEXPECTED_STATEMENT

<statement> ではパラメータマーカーは許可されていません。

# PARTITION_BY_VARIANT

VARIANTを生成する式を DataFrame のパーティショニングに使用することはできません。ただし、式 <expr> の型は <dataType> です。

# PARTITION_WITH_NESTED_COLUMN_IS_UNSUPPORTED

無効なパーティショニング: <cols> が存在しないか、マップまたは配列内にあります。

# PIPE_OPERATOR_AGGREGATE_UNSUPPORTED_CASE

集計を使用した SQL パイプ演算子構文 (|> AGGREGATE) は <case> をサポートしていません。

# PIVOT_AFTER_GROUP_BY

GROUP BY 句の後に PIVOT 句が続いています。GROUP BY をサブクエリにプッシュすることを検討してください。

# PIVOT_TYPE

データ型 <type> の値 '<value>' でピボットします。

# PURGE_PARTITION

パーティションのパージ。

# PURGE_TABLE

テーブルのパージ。

# PYTHON_UDF_IN_ON_CLAUSE

<joinType> JOIN の ON 句での Python UDF。INNER JOIN の場合は、WHERE 句を持つ CROSS JOIN に書き直すことを検討してください。

# QUERY_ONLY_CORRUPT_RECORD_COLUMN

内部の破損レコード列 (_corrupt_record、デフォルト名) のみを参照する列からクエリを実行することは、JSON/CSV/XML ファイルから許可されていません。たとえば、spark.read.schema(schema).json(file).filter($"_corrupt_record".isNotNull).count() および spark.read.schema(schema).json(file).select("_corrupt_record").show()。代わりに、解析結果をキャッシュまたは保存してから、同じクエリを送信できます。たとえば、val df = spark.read.schema(schema).json(file).cache() の後に df.filter($"_corrupt_record".isNotNull).count()

# REMOVE_NAMESPACE_COMMENT

名前空間 <namespace> からコメントを削除します。

# REPLACE_NESTED_COLUMN

replace 関数は、ネストされた列 <colName> をサポートしていません。

# SET_NAMESPACE_PROPERTY

<property> は予約済みの名前空間プロパティです。<msg>

# SET_OPERATION_ON_MAP_TYPE

MAP 型の列を、セット操作 (INTERSECT、EXCEPT など) を呼び出す DataFrame に含めることはできません。ただし、列 <colName> の型は <dataType> です。

# SET_OPERATION_ON_VARIANT_TYPE

VARIANT型の列を、セット操作 (INTERSECT、EXCEPT など) を呼び出す DataFrame に含めることはできません。ただし、列 <colName> の型は <dataType> です。

# SET_PROPERTIES_AND_DBPROPERTIES

PROPERTIES と DBPROPERTIES を同時に設定します。

# SET_TABLE_PROPERTY

<property> は予約済みのテーブルプロパティです。<msg>

# SET_VARIABLE_USING_SET

<variableName> は VARIABLE であり、SET ステートメントを使用して更新することはできません。代わりに SET VARIABLE <variableName> = ... を使用してください。

# SQL_SCRIPTING

SQL スクリプティングは開発中であり、すべての機能がサポートされているわけではありません。SQL スクリプティングにより、ユーザーは制御フローやエラー処理を含む手続き型 SQL を記述できます。既存の機能を有効にするには、<sqlScriptingEnabled>true に設定してください。

# SQL_SCRIPTING_DROP_TEMPORARY_VARIABLE

SQL スクリプト内では DROP TEMPORARY VARIABLE はサポートされていません。これを回避するには、EXECUTE IMMEDIATE 'DROP TEMPORARY VARIABLE ...' を使用してください。

# SQL_SCRIPTING_WITH_POSITIONAL_PARAMETERS

SQL スクリプティングでは、位置パラメータはサポートされていません。

# STATE_STORE_MULTIPLE_COLUMN_FAMILIES

<stateStoreProvider> を使用した複数の列ファミリーの作成はサポートされていません。

# STATE_STORE_REMOVING_COLUMN_FAMILIES

<stateStoreProvider> を使用した列ファミリーの削除はサポートされていません。

# STATE_STORE_TTL

<stateStoreProvider> を使用したステート TTL はサポートされていません。RocksDBStateStoreProvider を使用してください。

# TABLE_OPERATION

テーブル <tableName><operation> をサポートしていません。現在のカタログと名前空間を確認して、修飾されたテーブル名が期待どおりであることを確認してください。また、「spark.sql.catalog」で設定されているカタログ実装も確認してください。

# TEMPORARY_VIEW_WITH_SCHEMA_BINDING_MODE

WITH SCHEMA 句を使用して一時ビューを作成することはできません。基になるスキーマが変更されたときに一時ビューを再作成するか、永続ビューを使用してください。

# TIME_TRAVEL

リレーション: <relationId> のタイムトラベル。

# TOO_MANY_TYPE_ARGUMENTS_FOR_UDF_CLASS

<num> 個の型引数を持つ UDF クラス。

# TRANSFORM_DISTINCT_ALL

DISTINCT/ALL 句を使用した TRANSFORM。

# TRANSFORM_NON_HIVE

SERDE を使用した TRANSFORM は、hive モードでのみサポートされています。

# TRIM_COLLATION

照合順序での TRIM 指定子。

# UPDATE_COLUMN_NULLABILITY

MySQL および MS SQL Server の列の NULL 許容性の更新。

# WRITE_FOR_BINARY_SOURCE

バイナリファイルデータソースの書き込み。

0A000 # UNSUPPORTED_JOIN_TYPE

サポートされていない結合タイプ '<typ>'。サポートされている結合タイプには、<supported> が含まれます。

0A000 # UNSUPPORTED_PARTITION_TRANSFORM

サポートされていないパーティション変換: <transform>。サポートされている変換は identitybucket、および clusterBy です。変換式でこれらのいずれかが使用されていることを確認してください。

0A000 # UNSUPPORTED_SAVE_MODE

保存モード <saveMode> はサポートされていません

# EXISTENT_PATH

既存のパス。

# NON_EXISTENT_PATH

存在しないパス。

0A000 # UNSUPPORTED_SHOW_CREATE_TABLE

SHOW CREATE TABLE コマンドはサポートされていません。

# ON_DATA_SOURCE_TABLE_WITH_AS_SERDE

テーブル <tableName> は Spark データソーステーブルです。AS SERDE なしで SHOW CREATE TABLE を使用してください。

# ON_TEMPORARY_VIEW

一時ビュー <tableName> ではコマンドはサポートされていません。

# ON_TRANSACTIONAL_HIVE_TABLE

トランザクション Hive テーブル <tableName> に対してコマンドを実行できませんでした。Hive DDL を表示するには、代わりに SHOW CREATE TABLE <tableName> AS SERDE を使用してください。

# WITH_UNSUPPORTED_FEATURE

Hive によって作成され、サポートされていない機能 <unsupportedFeatures> を使用するテーブル/ビュー <tableName> に対してコマンドを実行できませんでした。

# WITH_UNSUPPORTED_SERDE_CONFIGURATION

Hive によって作成され、サポートされていない serde 設定 <configs> を使用するテーブル <tableName> に対してコマンドを実行できませんでした。Hive DDL を表示するには、代わりに SHOW CREATE TABLE <tableName> AS SERDE を使用してください。

0A000 # UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

シングルパスアナライザーは、<feature> をまだサポートしていないため、このクエリまたはコマンドを処理できません。

0A000 # UNSUPPORTED_SQL_UDF_USAGE

<nodeName> で SQL 関数 <functionName> を使用することはサポートされていません。

0A000 # UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

<outputMode> 出力モードは、ウォーターマークのないストリーミング DataFrame/DataSet の <statefulOperator> ではサポートされていません。

0A000 # UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

サポートされていないサブクエリ式。

# ACCESSING_OUTER_QUERY_COLUMN_IS_NOT_ALLOWED

この場所では、外側のクエリ列へのアクセスは許可されていません: <treeNode>

# AGGREGATE_FUNCTION_MIXED_OUTER_LOCAL_REFERENCES

外側とローカルの両方の参照を持つ相関述語に集計関数が見つかりましたが、これはサポートされていません: <function>

# CORRELATED_COLUMN_IS_NOT_ALLOWED_IN_PREDICATE

述語では相関列は許可されていません: <treeNode>

# CORRELATED_COLUMN_NOT_FOUND

サブクエリ式の本体内の相関外名前参照が、囲むクエリで見つかりませんでした: <value>

# CORRELATED_REFERENCE

外側のクエリを参照する式は、WHERE/HAVING 句の外ではサポートされていません: <sqlExprs>

# HIGHER_ORDER_FUNCTION

高階関数内ではサブクエリ式はサポートされていません。高階関数からすべてのサブクエリ式を削除してから、クエリを再試行してください。

# LATERAL_JOIN_CONDITION_NON_DETERMINISTIC

lateral join 条件は非決定論的であることはできません: <condition>

# MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY

相関スカラーサブクエリは、最大 1 行を返すために集計する必要があります。

# NON_CORRELATED_COLUMNS_IN_GROUP_BY

スカラー相関サブクエリの GROUP BY 句には、非相関列を含めることはできません: <value>

# NON_DETERMINISTIC_LATERAL_SUBQUERIES

非決定論的な lateral サブクエリは、1 行を超える行を生成する外側のリレーションとの結合時にサポートされていません: <treeNode>

# SCALAR_SUBQUERY_IN_VALUES

VALUES 句のスカラーサブクエリ。

# UNSUPPORTED_CORRELATED_EXPRESSION_IN_JOIN_CONDITION

結合述語の相関サブクエリは、両方の結合入力を参照することはできません: <subqueryExpression>

# サポートされていない相関参照データ型

相関列参照 '<expr>' は <dataType> 型にできません。

# サポートされていない相関スカラーサブクエリ

相関スカラーサブクエリは、フィルタ、集計、射影、および UPDATE/MERGE/DELETE コマンドでのみ使用できます: <treeNode>

# サポートされていない IN EXISTS サブクエリ

IN/EXISTS 述語サブクエリは、フィルタ、結合、集計、ウィンドウ関数、射影、および UPDATE/MERGE/DELETE コマンドでのみ使用できます: <treeNode>

# サポートされていないテーブル引数

テーブル引数が、サポートされていない関数で使用されています: <treeNode>

0A000 # サポートされていない型付きリテラル

<unsupportedType> 型のリテラルはサポートされていません。サポートされている型は <supportedTypes> です。

0AKD0 # スキーマをまたいだ名前変更はできません

<type> をスキーマをまたいで名前変更することは許可されていません。

21000 # 空行を伴うブールステートメント

ブールステートメント <invalidStatement> は無効です。BOOLEAN 型の値を持つ単一行が期待されましたが、空行が得られました。

21000 # 行サブクエリが行すぎる

行として使用されるサブクエリから複数の行が返されました。

21000 # スカラーサブクエリが行すぎる

式として使用されるサブクエリから複数の行が返されました。

21S01 # ビュー作成列のarity不一致

ビュー <viewName> を作成できません。理由は次のとおりです。

# データ列が不足しています

データ列が不足しています: ビュー列: <viewColumns>。データ列: <dataColumns>

# データ列が多すぎます

データ列が多すぎます: ビュー列: <viewColumns>。データ列: <dataColumns>

21S01 # INSERT列のarity不一致

<tableName> への書き込みはできません。理由は次のとおりです。

# データ列が不足しています

データ列が不足しています: テーブル列: <tableColumns>。データ列: <dataColumns>

# データ列が多すぎます

データ列が多すぎます: テーブル列: <tableColumns>。データ列: <dataColumns>

21S01 # INSERTパーティション列のarity不一致

'<tableName>' への書き込みはできません。<reason>: テーブル列: <tableColumns>。静的値を持つパーティション列: <staticPartCols>。データ列: <dataColumns>

22000 # HLLユニオン異なるlg-k

スケッチの lgConfigK 値が異なります: <left><right>。異なる lgConfigK 値で <function> を呼び出すには、allowDifferentLgConfigK パラメータを true に設定してください。

22000 # 不正な文字コーディング

<function><charset> で実行中に無効な値が見つかりました。

22003 # 算術オーバーフロー

<message><alternative> 必要に応じて、このエラーを回避するために <config> を "false" に設定してください。

22003 # バイナリ算術オーバーフロー

<value1> <symbol> <value2> はオーバーフローを引き起こしました。オーバーフローの問題を無視して NULL を返すには <functionName> を使用してください。

22003 # キャストオーバーフロー

<sourceType> の値 <value> は、オーバーフローのため <targetType> にキャストできません。オーバーフローを許容し NULL を返すには try_cast を使用してください。

22003 # テーブル挿入でのキャストオーバーフロー

オーバーフローのため、<sourceType> 型の値を <targetType> 型の列または変数 <columnName> に割り当てられませんでした。オーバーフローを許容し NULL を返すには、入力値に try_cast を使用してください。

22003 # 列序数が範囲外

列序数が範囲外です。テーブルの列数は <attributesLength> ですが、列序数は <ordinal> です。属性は次のとおりです: <attributes>

22003 # DECIMAL精度が最大精度を超える

Decimal 精度 <precision> が最大精度 <maxPrecision> を超えています。

22003 # 不正なランプアップ率

<rowsPerSecond> rowsPerSecond の最大オフセットは <maxSeconds> ですが、'rampUpTimeSeconds' は <rampUpTimeSeconds> です。

22003 # 無効な配列インデックス

インデックス <indexValue> は範囲外です。配列には <arraySize> 個の要素があります。無効なインデックスへのアクセスを許容し NULL を返すには SQL 関数 get() を使用してください。

22003 # ELEMENT_AT での無効な配列インデックス

インデックス <indexValue> は範囲外です。配列には <arraySize> 個の要素があります。無効なインデックスへのアクセスを許容し NULL を返すには try_element_at を使用してください。

22003 # 無効なビットマップ位置

0 から始まるビットマップ位置 <bitPosition> は範囲外です。ビットマップには <bitmapNumBits> ビット (<bitmapNumBytes> バイト) があります。

22003 # 無効な境界

境界 <boundary> は無効です: <invalidValue>

# END

'0', '<longMaxValue>', '[<intMinValue>, <intMaxValue>]' の値が期待されました。

# START

'0', '<longMinValue>', '[<intMinValue>, <intMaxValue>]' の値が期待されました。

22003 # 無効なゼロインデックス

インデックス 0 は無効です。インデックスは < 0 または > 0 である必要があります (最初の要素のインデックスは 1 です)。

22003 # 無効な数値リテラルの範囲

数値リテラル <rawStrippedQualifier> は、最小値 <minValue> および最大値 <maxValue> を持つ <typeName> の有効な範囲外です。値を調整してください。

22003 # 頻度式における負の値

<frequencyExpression> で負の値 <negativeValue> が見つかりましたが、正の整数値が期待されました。

22003 # 数値がサポート範囲外

<value> は、38 桁を超えるため数値として解釈できません。

22003 # 数値が範囲外
# 提案なし

<originalValue> から四捨五入された <roundedValue> は、Decimal(<precision>, <scale>) として表現できません。

# 提案あり

<value> は Decimal(<precision>, <scale>) として表現できません。必要に応じて、このエラーを回避して NULL を返すために <config> を "false" に設定してください。

22003 # LIMIT と OFFSET の合計が最大整数を超える

LIMIT 句と OFFSET 句の合計は、最大 32 ビット整数値 (2,147,483,647) を超えてはなりませんが、limit = <limit>、offset = <offset> が見つかりました。

22004 # コンパレータが NULL を返す

コンパレータは <firstValue><secondValue> の比較で NULL を返しました。「より大きい」場合は正の整数、「等しい」場合は 0、「より小さい」場合は負の整数を返す必要があります。NULL を 0 (等しい) として扱う非推奨の動作に戻すには、"spark.sql.legacy.allowNullComparisonResultInArraySort" を "true" に設定する必要があります。

22004 # NULL クエリ文字列実行即時

EXECUTE IMMEDIATE には非NULL のクエリ文字列変数が要求されますが、提供された変数 <varName> は NULL です。

22004 # タプルが空

Scala のタプルサポートの制限により、空のタプルはサポートされていません。

22006 # INTERVAL を解析できません

<intervalString> を解析できません。提供された値がINTERVALを定義するための有効な形式であることを確認してください。正しい形式についてはドキュメントを参照してください。問題が解決しない場合は、入力値が NULL または空でないことを確認して再度試してください。

22006 # 無効な INTERVAL 形式

'<input>' を INTERVAL に解析中にエラーが発生しました。提供された値が INTERVAL を定義するための有効な形式であることを確認してください。正しい形式についてはドキュメントを参照してください。

# 算術例外

'<input>' の解析中に予期しない算術例外が発生しました。

# DAY-TIME 解析

INTERVAL DAY-TIME 文字列の解析中にエラーが発生しました: <msg>

# 入力が空

INTERVAL 文字列は空にできません。

# 入力が NULL

INTERVAL 文字列は NULL にできません。

# INTERVAL 解析

INTERVAL <interval> 文字列の解析中にエラーが発生しました。

# 無効な小数部

<unit> は小数部を持つことができません。

# 無効な精度

INTERVAL はナノ秒精度のみをサポートできます。<value> は範囲外です。

# 無効なプレフィックス

無効な INTERVAL プレフィックス <prefix>

# 無効な単位

無効な単位 <unit>

# 無効な値

無効な値 <value>

# 数字が見つかりません

<word> の後に数字が期待されましたが、EOL に達しました。

# 単位が見つかりません

<word> の後に単位名が期待されましたが、EOL に達しました。

# 秒ナノ形式

INTERVAL 文字列が ss.nnnnnnnnn の秒-ナノ形式と一致しません。

# タイムゾーン INTERVAL が範囲外

INTERVAL 値は、秒精度で [-18, +18] 時間の範囲内である必要があります。

# 不明な解析エラー

<word> の解析中に不明なエラーが発生しました。

# フォーマット文字列が一致しません

<typeName> にキャストする際に、INTERVAL 文字列が <supportedFormat><intervalStr> 形式と一致しません: <input>

# 通知付きフォーマット文字列が一致しません

<typeName> にキャストする際に、INTERVAL 文字列が <supportedFormat><intervalStr> 形式と一致しません: <input>。Spark 3.0 より前の動作を復元するには、"spark.sql.legacy.fromDayTimeString.enabled" を "true" に設定してください。

# 認識されない数値

認識されない数値 <number>

# サポートされていない FROM-TO 式

(INTERVAL '<input>' <from> TO <to>) 式はサポートできません。

22006 # マイクロ秒加算を伴う無効なINTERVAL

マイクロ秒部分が 0 でないため、日付に INTERVAL を加算することはできません。この問題を解決するには、入力日付をタイムスタンプにキャストしてください。これにより、ゼロでないマイクロ秒を持つ INTERVAL の加算がサポートされます。

22007 # TIMESTAMP を解析できません

<message>。無効な入力文字列を許容し NULL を返すには <func> を使用してください。

22007 # 無効な日時パターン

認識されない日時パターン: <pattern>

# 不正な文字

日時パターンで不正なパターン文字が見つかりました: <c>。有効な文字を入力してください。

# 長さ

日時パターンが長すぎます: <pattern>。パターン長を短くしてください。

# 秒の小数部

可変長の秒の小数部パターンを検出できません。パターンに 'S' が含まれ、不正な文字が含まれていないことを確認してください。

22008 # 日時オーバーフロー

日時操作オーバーフロー: <operation>

22009 # 不正な曜日

曜日の不正な入力: <string>

22009 # 無効なタイムゾーン

タイムゾーン: <timeZone> は無効です。タイムゾーンは、地域ベースのゾーン ID またはゾーンオフセットのいずれかである必要があります。地域 ID は 'area/city' の形式である必要があります (例: 'America/Los_Angeles')。ゾーンオフセットは '(+|-)HH', '(+|-)HH:mm' または '(+|-)HH:mm:ss' の形式である必要があります (例: '-08', '+01:00' または '-13:33:33')。範囲は -18:00 から +18:00 である必要があります。'Z' および 'UTC' は '+00:00' の同義語として受け入れられます。

2200E # NULL マップキー

NULL をマップキーとして使用することはできません。

22012 # ゼロ除算

ゼロ除算。除数が 0 の場合に NULL を返すようにするには try_divide を使用してください。必要に応じて、このエラーを回避するために <config> を "false" に設定してください。

22012 # INTERVAL がゼロ除算

ゼロ除算。除数が 0 の場合に NULL を返すようにするには try_divide を使用してください。

22015 # INTERVAL 算術オーバーフロー

INTERVAL の操作中に整数オーバーフローが発生しました。

# 提案なし

INTERVAL パラメータに適した値を考案してください。

# 提案あり

オーバーフローを許容し NULL を返すには <functionName> を使用してください。

22018 # DECIMAL を解析できません

DECIMAL を解析できません。入力が、オプションの小数点またはコンマ区切り文字を持つ有効な数値であることを確認してください。

22018 # PROTOBUF 記述子を解析できません

記述子バイトを Protobuf FileDescriptorSet に解析中にエラーが発生しました。

22018 # キャスト無効な入力

<sourceType> の値 <expression> は、不正な形式であるため <targetType> にキャストできません。値を構文に従って修正するか、ターゲット型を変更してください。不正な形式の入力を許容し NULL を返すには try_cast を使用してください。

22018 # 変換無効な入力

<str> (<fmt>) は、不正な形式であるため <targetType> に変換できません。値を構文に従って修正するか、形式を変更してください。不正な形式の入力を許容し NULL を返すには <suggestion> を使用してください。

22018 # STRUCT 型の解析に失敗しました

STRUCT の解析に失敗しました: <raw>

2201E # STRUCT 配列の長さの不一致

入力行には、スキーマに必要な期待される値の数がありません。<expected> 個のフィールドが必要ですが、<actual> 個の値が提供されました。

22022 # 無効な設定値

設定 "<confName>" の値 '<confValue>' は無効です。

# タイムゾーン

指定されたタイムゾーンを解決できません。

22023 # 日時フィールドが範囲外

<rangeMessage>。必要に応じて、このエラーを回避するために <ansiConfig> を "false" に設定してください。

22023 # 無効な秒の小数部

秒の有効な範囲は [0, 60] (包括) ですが、提供された値は <secAndMicros> です。このエラーを回避するには、try_make_timestamp を使用してください。これはエラー時に NULL を返します。この関数のセッションデフォルトのタイムスタンプバージョンを使用しない場合は、try_make_timestamp_ntz または try_make_timestamp_ltz を使用してください。

22023 # JSON レコードの無効な型

モード <failFastMode> で共通スキーマを推論中に、JSON レコードの無効な型が検出されました。STRUCT 型が期待されましたが、<invalidType> が見つかりました。

22023 # 無効なパラメータ値

<functionName> のパラメータ <parameter> の値が無効です。

# AES 暗号化エラー

詳細メッセージ: <detailMessage>

# AES IV 長

16 バイトの CBC IV と 12 バイトの GCM IV をサポートしていますが、<mode> 用に <actualLength> バイトが得られました。

# AES キー長

16、24、または 32 バイトのバイナリ値が期待されますが、<actualLength> バイトが得られました。

# バイナリ形式

バイナリ形式 'base64', 'hex', 'utf-8' のいずれかが期待されますが、<invalidFormat> が見つかりました。

# ビット位置範囲

[0, <upper>) の整数値が期待されますが、<invalidValue> が見つかりました。

# ブール値

ブールリテラルが期待されますが、<invalidValue> が見つかりました。

# 文字セット

<charsets> のいずれかが期待されますが、<charset> が見つかりました。

# 日時単位

YEAR, QUARTER, MONTH, WEEK, DAY, DAYOFYEAR, HOUR, MINUTE, SECOND, MILLISECOND, MICROSECOND の単位 (引用符なし) のいずれかが期待されますが、文字列リテラル <invalidValue> が見つかりました。

# DOUBLE

double リテラルが期待されますが、<invalidValue> が見つかりました。

# DTYPE

サポートされていない dtype: <invalidValue>。有効な値: float64, float32。

# 拡張子

無効な拡張子: <invalidValue>。拡張子は正確に3文字 (例: csv, tsv など) に制限されています。

# INTEGER

整数リテラルが期待されますが、<invalidValue> が見つかりました。

# 長さ

長さが 0 以上であることが期待されますが、<length> が見つかりました。

# LONG

long リテラルが期待されますが、<invalidValue> が見つかりました。

# NULL

NULL でない値が期待されます。

# パターン

<value>.

# 正規表現グループインデックス

グループインデックスは 0 から <groupCount> の間であることが期待されますが、<groupIndex> が見つかりました。

# START

start には正または負の値が期待されますが、0 が見つかりました。

# 文字列

文字列リテラルが期待されますが、<invalidValue> が見つかりました。

# ゼロインデックス

%1$, %2$ などが期待されますが、%0$ が見つかりました。

22023 # 無効な正規表現置換

source = "<source>", pattern = "<pattern>", replacement = "<replacement>", position = <position> の regexp_replace を実行できませんでした。

22023 # 無効なバリアントキャスト

バリアント値 <value><dataType> にキャストできません。代わりに try_variant_get を使用してください。

22023 # PARQUET からの無効なバリアント

無効なバリアント。

# フィールドが見つかりません

<field> フィールドが見つかりません。

# NULL 可能またはバイナリでないフィールド

<field> は NULL 不可のバイナリである必要があります。

# フィールド数が間違っています

バリアント列には正確に 2 つのフィールドが含まれている必要があります。

22023 # 無効なバリアント取得パス

パス <path><functionName> で有効なバリアント抽出パスではありません。有効なパスは $ で始まり、その後に [123].name['name']、または ["name"] のような 0 個以上のセグメントが続きます。

22023 # 無効なバリアントシュレッディングスキーマ

スキーマ <schema> は有効なバリアントシュレッディングスキーマではありません。

22023 # 解析中の不正なレコード

レコード解析中に不正なレコードが検出されました: <badRecord>。解析モード: <failFastMode>。不正なレコードを NULL 結果として処理するには、オプション 'mode' を 'PERMISSIVE' に設定してみてください。

# JSON 配列を STRUCT として解析できません

JSON 配列を STRUCT として解析することは禁止されています。

# 文字列をデータ型として解析できません

フィールド <fieldName> の値 <fieldValue> を、入力型 <inputType> からターゲット Spark データ型 <targetType> に解析できません。

# 提案なし
22023 # 不正なバリアント

バリアントバイナリが不正です。データソースが有効であることを確認してください。

22023 # 行の値が NULL

インデックス <index> の行に NULL が見つかりました。NULL でない値が期待されました。

22023 # ルールIDが見つかりません

ルール名 "<ruleName>" のIDが見つかりませんでした。新しいルールを追加する場合は、RuleIdCollection.scala を変更してください。

22023 # 2番目の関数引数が整数でない

<functionName> 関数の2番目の引数は整数である必要があります。

22023 # テーブル値関数に必要なメタデータが呼び出しと互換性がありません

テーブル関数 <functionName> を評価できませんでした。そのテーブルメタデータは <requestedMetadata> ですが、関数呼び出しは <invalidFunctionCallProperty> です。

22023 # テーブル値関数に必要なメタデータが無効です

テーブル関数 <functionName> を評価できませんでした。そのテーブルメタデータが無効でした。<reason>

22023 # バリアント内の不明なプリミティブ型

バリアント値内で、ID <id> を持つ不明なプリミティブ型が見つかりました。

22023 # バリアントコンストラクタサイズ制限

16 MiB を超えるバリアントを構築できません。バリアント値の最大許容サイズは 16 MiB です。

22023 # バリアント重複キー

重複オブジェクトキー <key> のため、バリアントの構築に失敗しました。

22023 # バリアントサイズ制限

<functionName><sizeLimit> より大きいバリアントを構築できません。この式への大きな入力文字列を避けてください (たとえば、式サイズを確認し、大きすぎる場合は最初に NULL に変換する関数呼び出しを追加してください)。

22024 # NULL データソースオプション

データソースの読み取り/書き込みオプション <option> は NULL 値を持つことはできません。

22029 # 無効な UTF8 文字列

文字列で無効な UTF8 バイトシーケンスが見つかりました: <str>

22032 # 無効な JSON ルートフィールド

JSON ルートフィールドをターゲット Spark 型に変換できません。

22032 # 無効な JSON スキーママップ型

入力スキーマ <jsonSchema> は、MAP のキー型として STRING のみを含むことができます。

2203G # JSON フィールドを解析できません

JSON トークン型 <jsonType> のフィールド名 <fieldName> と値 <fieldValue> をターゲット Spark データ型 <dataType> に解析できません。

2203G # 行から JSON への変換に失敗しました

クラス <class> の行値 <value> を JSON 形式のターゲット SQL 型 <sqlType> に変換できませんでした。

2203G # 無効な JSON データ型

JSON 文字列 '<invalidType>' をデータ型に変換できませんでした。有効なデータ型を入力してください。

2203G # コレクションに対する無効な JSON データ型

コレクションは文字列型にのみ適用できますが、JSON データ型は <jsonType> です。

22546 # URL をデコードできません

提供された URL をデコードできません: <url>。URL が正しくフォーマットされていることを確認して、再度試してください。

22546 # HLL 無効な入力スケッチバッファ

<function> への呼び出しが無効です。有効な HLL スケッチバッファのみが入力としてサポートされます (例: hll_sketch_agg 関数によって生成されるもの)。

22546 # HLL 無効な lg-k

<function> への呼び出しが無効です。lgConfigK 値は <min> から <max> (包括) の間である必要があります: <value>

22546 # 無効なブールステートメント

条件にはブールステートメントが期待されますが、<invalidStatement> が見つかりました。

22KD3 # Avro 互換性のない読み取り型

Avro <avroPath> を SQL <sqlPath> に変換できません。元のエンコードされたデータ型は <avroType> ですが、フィールドを <sqlType> として読み込もうとしており、これは誤った結果につながります。このフィールドの読み込みを許可するには、SQL 設定 "spark.sql.legacy.avro.allowIncompatibleSchema" を有効にしてください。

22KD3 # Avro がロードされておらず SQL 関数が使用不可

Avro データソースがロードされていないため、<functionName> SQL 関数を呼び出すことができません。'spark-avro' パッケージがロードされた状態でジョブまたはセッションを再起動してください (たとえば、コマンドラインで --packages 引数を使用します)。その後、クエリまたはコマンドを再試行してください。

22KD3 # Kryo を使用できません

Kryo シリアライゼーションコーデックをロードできません。Kryo シリアライゼーションは Spark Connect クライアントでは使用できません。Java シリアライゼーションを使用するか、カスタムコーデックを提供するか、Spark Classic を使用してください。

22KD3 # Protobuf がロードされておらず SQL 関数が使用不可

Protobuf データソースがロードされていないため、<functionName> SQL 関数を呼び出すことができません。'spark-protobuf' パッケージがロードされた状態でジョブまたはセッションを再起動してください (たとえば、コマンドラインで --packages 引数を使用します)。その後、クエリまたはコマンドを再試行してください。

22P02 # 無効な URL

URL が無効です: <url>。無効な URL を許容し NULL を返すには try_parse_url を使用してください。

22P03 # 無効なバイト文字列

期待される形式は ByteString ですが、<unsupported> (<class>) でした。

23505 # 重複マップキー

重複マップキー <key> が見つかりました。入力データを確認してください。重複キーを削除したい場合は、<mapKeyDedupPolicy> を "LAST_WIN" に設定すると、最後に入力されたキーが優先されます。

23505 # 重複キー

重複キー <keyColumn> が見つかりました。

23K01 # MERGE カーディナリティ違反

MERGE ステートメントの ON 検索条件は、ターゲットテーブルの単一行とソーステーブルの複数行を一致させました。これにより、ターゲット行が複数回更新または削除される可能性があり、許可されません。

2BP01 # スキーマが空でない

スキーマ <schemaName> にオブジェクトが含まれているため、削除できません。スキーマとそのすべてのオブジェクトを削除するには、DROP SCHEMA ... CASCADE を使用してください。

38000 # クラスが期待されるメソッドをオーバーライドしていません

<className><method1> または <method2> のいずれかをオーバーライドする必要があります。

38000 # 関数呼び出しに失敗しました

関数 <funcName> の準備呼び出しに失敗しました。関数の引数を確認してください。

38000 # ルーチンのロードに失敗しました

ルーチン <routineName> のロードに失敗しました。

38000 # 無効な UDF 実装

関数 <funcName> は ScalarFunction または AggregateFunction を実装していません。

38000 # UDF インターフェースなし

UDF クラス <className> はどの UDF インターフェースも実装していません。

38000 # Python データソースエラー

Python データソース <type><action> に失敗しました: <msg>

38000 # Python ストリーミングデータソース実行時エラー

Python ストリーミングデータソースが <action> を実行中に失敗しました: <msg>

38000 # Python でのテーブル値関数の分析に失敗しました

Python ユーザー定義テーブル関数の分析に失敗しました: <msg>

39000 # UDF の実行に失敗しました

ユーザー定義関数(<functionName>: (<signature>) => <result>) が次の理由で失敗しました: <reason>

39000 # FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

flatMapGroupsWithState でユーザー提供の関数にエラーが発生しました。理由: <reason>

39000 # FOREACH_BATCH_USER_FUNCTION_ERROR

foreach batch sink でユーザー提供の関数にエラーが発生しました。理由: <reason>

39000 # FOREACH_USER_FUNCTION_ERROR

foreach sink でユーザー提供の関数にエラーが発生しました。理由: <reason>

3F000 # MISSING_DATABASE_FOR_V1_SESSION_CATALOG

v1 セッションカタログでデータベース名が指定されていません。v1 カタログとの対話時には、有効なデータベース名を指定してください。

40000 # CONCURRENT_STREAM_LOG_UPDATE

ログへの同時更新。<batchId> に対して複数のストリーミングジョブが検出されました。特定のチェックポイントロケーションで一度に 1 つのストリーミングジョブのみが実行されるようにしてください。

42000 # AMBIGUOUS_REFERENCE_TO_FIELDS

フィールド <field> への曖昧な参照。スキーマに <count> 回出現しています。

42000 # CANNOT_REMOVE_RESERVED_PROPERTY

予約済みプロパティを削除できません: <property>

42000 # CLUSTERING_NOT_SUPPORTED

'<operation>' はクラスタリングをサポートしていません。

42000 # INVALID_COLUMN_OR_FIELD_DATA_TYPE

列またはフィールド <name><type> 型ですが、<expectedType> 型である必要があります。

42000 # INVALID_EXTRACT_BASE_FIELD_TYPE

<base> から値を抽出できません。複雑な型 (STRUCT、ARRAY、MAP) が必要ですが、<other> が見つかりました。

42000 # INVALID_EXTRACT_FIELD_TYPE

フィールド名は null でない文字列リテラルである必要がありますが、<extraction> です。

42000 # INVALID_FIELD_NAME

フィールド名 <fieldName> は無効です: <path> は struct ではありません。

42000 # INVALID_INLINE_TABLE

インラインテーブルが無効です。

# CANNOT_EVALUATE_EXPRESSION_IN_INLINE_TABLE

インラインテーブル定義の式 <expr> を評価できません。

# FAILED_SQL_EXPRESSION_EVALUATION

SQL 式 <sqlExpr> の評価に失敗しました。構文を確認し、必要なすべてのテーブルと列が利用可能であることを確認してください。

# INCOMPATIBLE_TYPES_IN_INLINE_TABLE

インラインテーブルの列 <colName> で互換性のない型が見つかりました。

# NUM_COLUMNS_MISMATCH

インラインテーブルは <expectedNumCols> 列を期待していましたが、行 <rowIndex><actualNumCols> 列が見つかりました。

42000 # INVALID_RESET_COMMAND_FORMAT

期待される形式は 'RESET' または 'RESET key' です。キーに特殊文字を含めたい場合は、引用符を使用してください。例: RESET key

42000 # INVALID_SAVE_MODE

指定された保存モード <mode> は無効です。有効な保存モードには、「append」、「overwrite」、「ignore」、「error」、「errorifexists」、「default」があります。

42000 # INVALID_SET_SYNTAX

期待される形式は 'SET'、'SET key'、または 'SET key=value' です。キーに特殊文字を含めたい場合、または値にセミコロンを含めたい場合は、バッククォートを使用してください。例: SET key=value

42000 # INVALID_SQL_SYNTAX

SQL 構文が無効です。

# ANALYZE_TABLE_UNEXPECTED_NOSCAN

ANALYZE TABLE(S) ... COMPUTE STATISTICS ... <ctx> は NOSCAN または空である必要があります。

# CREATE_FUNC_WITH_COLUMN_CONSTRAINTS

列の制約を持つ CREATE FUNCTION は許可されていません。

# CREATE_FUNC_WITH_GENERATED_COLUMNS_AS_PARAMETERS

生成された列をパラメータとして持つ CREATE FUNCTION は許可されていません。

# CREATE_ROUTINE_WITH_IF_NOT_EXISTS_AND_REPLACE

IF NOT EXISTS と REPLACE の両方を指定してルーチンを作成することはできません。

# CREATE_TEMP_FUNC_WITH_DATABASE

データベース (<database>) を指定した CREATE TEMPORARY FUNCTION は許可されていません。

# CREATE_TEMP_FUNC_WITH_IF_NOT_EXISTS

IF NOT EXISTS を指定した CREATE TEMPORARY FUNCTION は許可されていません。

# EMPTY_PARTITION_VALUE

パーティションキー <partKey> には値を設定する必要があります。

# FUNCTION_WITH_UNSUPPORTED_SYNTAX

関数 <prettyName><syntax> をサポートしていません。

# INVALID_COLUMN_REFERENCE

変換 <transform> には列参照が必要です: <expr>

# INVALID_TABLE_FUNCTION_IDENTIFIER_ARGUMENT_MISSING_PARENTHESES

構文エラー: テーブル値関数への呼び出しは、指定された TABLE 引数 <argumentName> の括弧が不足しているため無効です。この引数を括弧で囲んで再試行してください。

# INVALID_TABLE_VALUED_FUNC_NAME

テーブル値関数はデータベース名を指定できません: <funcName>

# INVALID_WINDOW_REFERENCE

ウィンドウ参照 <windowName> はウィンドウ仕様ではありません。

# LATERAL_WITHOUT_SUBQUERY_OR_TABLE_VALUED_FUNC

LATERAL はサブクエリおよびテーブル値関数でのみ使用できます。

# MULTI_PART_NAME

複数部分名 (<name>) の <statement> は許可されていません。

# OPTION_IS_INVALID

オプションまたはプロパティキー <key> は無効です。サポートされているのは <supported> のみです。

# REPETITIVE_WINDOW_DEFINITION

ウィンドウ <windowName> の定義は繰り返しです。

# SHOW_FUNCTIONS_INVALID_PATTERN

SHOW FUNCTIONS のパターン <pattern> が無効です。これは "STRING" リテラルである必要があります。

# SHOW_FUNCTIONS_INVALID_SCOPE

SHOW <scope> FUNCTIONS はサポートされていません。

# TRANSFORM_WRONG_NUM_ARGS

変換 <transform><expectedNum> 個のパラメータを必要としますが、実際の数は <actualNum> です。

# UNRESOLVED_WINDOW_REFERENCE

ウィンドウ参照 <windowName> を解決できません。

# UNSUPPORTED_FUNC_NAME

サポートされていない関数名 <funcName>

# UNSUPPORTED_SQL_STATEMENT

サポートされていない SQL ステートメント: <sqlText>

# VARIABLE_TYPE_OR_DEFAULT_REQUIRED

SQL 変数の定義には、データ型または DEFAULT 句のいずれかが必要です。例: DECLARE name の代わりに DECLARE name STRING または DECLARE name = 'SQL' を使用してください。

42000 # INVALID_USAGE_OF_STAR_OR_REGEX

<prettyName> での <elem> の使用が無効です。

42000 # INVALID_WRITE_DISTRIBUTION

要求された書き込み分散が無効です。

# PARTITION_NUM_AND_SIZE

パーティション数と推奨パーティションサイズを同時に指定することはできません。

# PARTITION_NUM_WITH_UNSPECIFIED_DISTRIBUTION

パーティション数は、指定されていない分散と一緒に指定することはできません。

# PARTITION_SIZE_WITH_UNSPECIFIED_DISTRIBUTION

推奨パーティションサイズは、指定されていない分散と一緒に指定することはできません。

42000 # MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

<clause1><clause2> は、SQL パイプ演算子 '|>' で共存できません。複数の結果句を個別のパイプ演算子に分割してから、クエリを再試行してください。

42000 # NON_PARTITION_COLUMN

PARTITION 句に非パーティション列 <columnName> を含めることはできません。

42000 # NOT_NULL_ASSERT_VIOLATION

NULL 値が null 以外を許容しないフィールドに出現しました: <walkedTypePath>。スキーマが Scala のタプル/case クラス、または Java bean から推論されている場合は、scala.Option[_] またはその他の null を許容する型 (int/scala.Int の代わりに java.lang.Integer など) を使用してみてください。

42000 # NOT_NULL_CONSTRAINT_VIOLATION

NULL の代入はここでは許可されていません。

# ARRAY_ELEMENT

配列 <columnPath> は、NOT NULL の要素のみを含むように定義されています。

# MAP_VALUE

マップ <columnPath> は、NOT NULL の値のみを含むように定義されています。

42000 # NO_HANDLER_FOR_UDAF

UDAF '<functionName>' のハンドラがありません。代わりに sparkSession.udf.register(...) を使用してください。

42000 # NULLABLE_COLUMN_OR_FIELD

列またはフィールド <name> は null を許容しますが、null を許容しない必要があります。

42000 # NULLABLE_ROW_ID_ATTRIBUTES

行 ID 属性は null を許容できません: <nullableRowIdAttrs>

42000 # PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

パーティション列 <column> がスキーマ <schema> に見つかりません。パーティション化のための既存の列を指定してください。

42000 # UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG

テーブル <tableName> に対する JDBC カタログでは、テーブル変更 <change> はサポートされていません。サポートされている変更には、AddColumn、RenameColumn、DeleteColumn、UpdateColumnType、UpdateColumnNullability が含まれます。

42001 # INVALID_AGNOSTIC_ENCODER

無効な AgnosticEncoder が見つかりました。AgnosticEncoder のインスタンスを期待していましたが、<encoderType> が見つかりました。詳細については、「<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html」を参照してください。

42001 # INVALID_EXPRESSION_ENCODER

無効な ExpressionEncoder が見つかりました。ExpressionEncoder のインスタンスを期待していましたが、<encoderType> が見つかりました。詳細については、「<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html」を参照してください。

42601 # COLUMN_ALIASES_NOT_ALLOWED

<op> では列エイリアスは許可されていません。

42601 # IDENTIFIER_TOO_MANY_NAME_PARTS

<identifier> は、2 つ以上の名前部分を持つため、有効な識別子ではありません。

42601 # IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

重複した IDENTITY 列シーケンスジェネレーターオプション: <sequenceGeneratorOption>

42601 # ILLEGAL_STATE_STORE_VALUE

State Store に無効な値が提供されました。

# EMPTY_LIST_VALUE

StateName <stateName> の State Store に空のリスト値を書き込むことはできません。

# NULL_VALUE

StateName <stateName> の State Store に NULL 値を書き込むことはできません。

42601 # INVALID_ATTRIBUTE_NAME_SYNTAX

属性名 <name> の構文エラー。バッククォートがペアで出現し、引用符で囲まれた文字列が完全な名前部分であり、引用符で囲まれた名前部分の内側でのみバッククォートを使用していることを確認してください。

42601 # INVALID_BUCKET_COLUMN_DATA_TYPE

バケット列に <type> を使用できません。照合データ型はバケット化ではサポートされていません。

42601 # INVALID_EXTRACT_FIELD

<expr> から <field> を抽出できません。

42601 # INVALID_FORMAT

フォーマットが無効です: <format>

# CONT_THOUSANDS_SEPS

桁区切り文字 (カンマまたは G) は、数値フォーマットの小数点の前に配置する必要があります。

# CUR_MUST_BEFORE_DEC

数値フォーマットでは、通貨記号は小数点より前に配置する必要があります。

# CUR_MUST_BEFORE_DIGIT

数値フォーマットでは、通貨記号は数字より前に配置する必要があります。

# EMPTY

数値フォーマット文字列を空にすることはできません。

# ESC_AT_THE_END

エスケープ文字は末尾に配置できません。

# ESC_IN_THE_MIDDLE

エスケープ文字は <char> の前に配置できません。

# MISMATCH_INPUT

入力 <inputType> <input> がフォーマットと一致しません。

# THOUSANDS_SEPS_MUST_BEFORE_DEC

数値フォーマットでは、桁区切り文字 (カンマまたは G) は小数点より後に配置できません。

# UNEXPECTED_TOKEN

フォーマット文字列で予期しない <token> が見つかりました。フォーマット文字列の構造は次の形式である必要があります: [MI|S] [$] [0|9|G|,]* [.|D] [0|9]* [$] [PR|MI|S]

# WRONG_NUM_DIGIT

フォーマット文字列には、少なくとも 1 つの数値が必要です。

# WRONG_NUM_TOKEN

数値フォーマットでは、<token> は最大 1 つまで許可されます。

42601 # INVALID_PARTITION_OPERATION

パーティションコマンドが無効です。

# PARTITION_MANAGEMENT_IS_UNSUPPORTED

テーブル <name> はパーティション管理をサポートしていません。

# PARTITION_SCHEMA_IS_EMPTY

テーブル <name> はパーティション化されていません。

42601 # INVALID_STATEMENT_OR_CLAUSE

ステートメントまたは句: <operation> は有効ではありません。

42601 # INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

<aggFunc> に ORDER BY またはウィンドウフレームを指定することはできません。

42601 # LOCAL_MUST_WITH_SCHEMA_FILE

LOCAL は file のスキーマと組み合わせて使用する必要がありますが、<actualSchema> が見つかりました。

42601 # MERGE_WITHOUT_WHEN

MERGE ステートメントには少なくとも 1 つの WHEN 句が必要です。

42601 # NOT_ALLOWED_IN_FROM

FROM 句では許可されていません。

# LATERAL_WITH_PIVOT

LATERAL と PIVOT の併用。

# LATERAL_WITH_UNPIVOT

LATERAL と UNPIVOT の併用。

# UNPIVOT_WITH_PIVOT

UNPIVOT と PIVOT の併用。

42601 # NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

パイプ WHERE 句では許可されていません。

# WINDOW_CLAUSE

WINDOW 句。

42601 # NOT_A_CONSTANT_STRING

ルーチンまたは句 <name> に使用される式 <expr> は、NULL でない定数文字列である必要があります。

# NOT_CONSTANT

定数と見なされるには、式が列に依存せず、サブクエリを含まず、rand() のような決定不能な関数を呼び出さない必要があります。

# NULL

式は NULL を評価します。

# WRONG_TYPE

式のデータ型は <dataType> です。

42601 # NOT_UNRESOLVED_ENCODER

未解決のエンコーダーが期待されましたが、<attr> が見つかりました。

42601 # PARSE_MODE_UNSUPPORTED

関数 <funcName><mode> モードをサポートしていません。受け入れ可能なモードは PERMISSIVE と FAILFAST です。

42601 # PARSE_SYNTAX_ERROR

<error><hint> の前後またはその付近に構文エラーがあります。

42601 # REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

PARTITION 句内では DEFAULT 列値への参照は許可されていません。

42601 # SORT_BY_WITHOUT_BUCKETING

sortBy は bucketBy と一緒に使用する必要があります。

42601 # SPECIFY_BUCKETING_IS_NOT_ALLOWED

明示的な列リストのない CREATE TABLE では、バケット化情報を指定できません。列リストとバケット化情報を指定する形式を使用してください。または、句を省略してバケット化情報を推論させるようにしてください。

42601 # SPECIFY_PARTITION_IS_NOT_ALLOWED

明示的な列リストのない CREATE TABLE では、PARTITIONED BY を指定できません。列リストと PARTITIONED BY を指定する形式を使用してください。または、PARTITION BY 句を省略してパーティション化を推論させるようにしてください。

42601 # STDS_REQUIRED_OPTION_UNSPECIFIED

'<optionName>' を指定する必要があります。

42601 # SYNTAX_DISCONTINUED

このコンテキストでの句またはキーワード <clause> のサポートは廃止されました。

# BANG_EQUALS_NOT

'!' キーワードは、プレフィックス演算子 'NOT' のエイリアスとしてのみサポートされています。infix 句 (NOT LIKENOT INNOT BETWEEN など) には 'NOT' キーワードを使用してください。'!' キーワードを再度有効にするには、「spark.sql.legacy.bangEqualsNot」を「true」に設定してください。

42601 # TRAILING_COMMA_IN_SELECT

SELECT 句に末尾のカンマが検出されました。FROM 句の前に末尾のカンマを削除してください。

42601 # UNCLOSED_BRACKETED_COMMENT

閉じられていない括弧付きコメントが見つかりました。コメントの末尾に */ を追加してください。

42601 # USER_DEFINED_FUNCTIONS

ユーザー定義関数が無効です。

# CANNOT_CONTAIN_COMPLEX_FUNCTIONS

SQL スカラー関数には、集計/ウィンドウ/生成関数を含めることはできません: <queryText>

# CANNOT_REPLACE_NON_SQL_UDF_WITH_SQL_UDF

非 SQL 関数 <name> を SQL 関数で置き換えることはできません。

# NOT_A_VALID_DEFAULT_EXPRESSION

<functionName>.<parameterName> の DEFAULT 式は、サブクエリを含むためサポートされていません。

# NOT_A_VALID_DEFAULT_PARAMETER_POSITION

ルーチン <functionName> では、DEFAULT を持つパラメータ <parameterName> の後に DEFAULT を持たないパラメータ <nextParameterName> を続けることはできません。

# NOT_NULL_ON_FUNCTION_PARAMETERS

関数パラメータに NOT NULL を指定することはできません: <input>

# RETURN_COLUMN_COUNT_MISMATCH

RETURN 句によって生成された列数 (<outputSize>) が、<name> の RETURNS 句で指定された列名数 (<returnParamSize>) と一致しません。

# ROUTINE_PROPERTY_TOO_LARGE

ユーザー定義ルーチン <name> をカタログ関数に変換できません: ルーチンプロパティが大きすぎます。

# SQL_TABLE_UDF_BODY_MUST_BE_A_QUERY

SQL テーブル関数 <name> の本体はクエリである必要があります。

# SQL_TABLE_UDF_MISSING_COLUMN_NAMES

RETURNS TABLE 句を持つ CREATE FUNCTION ステートメントで <functionName> のために返されたリレーションには、1 つ以上の出力列の明示的な名前がありません。関数本体を書き直して明示的な列名を提供するか、RETURNS TABLE 句に列名を追加してからコマンドを再実行してください。

42601 # WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

ウィンドウ関数 <funcName> には OVER 句が必要です。

42601 # WRITE_STREAM_NOT_ALLOWED

writeStream はストリーミング Dataset/DataFrame でのみ呼び出すことができます。

42602 # CIRCULAR_CLASS_REFERENCE

クラスに循環参照を持つことはできませんが、クラス <t> の循環参照が発生しました。

42602 # DUPLICATED_CTE_NAMES

CTE 定義に重複した名前を持つことはできません: <duplicateNames>

42602 # INVALID_DELIMITER_VALUE

区切り文字の値が無効です。

# DELIMITER_LONGER_THAN_EXPECTED

区切り文字は 1 文字を超えることはできません: <str>

# EMPTY_STRING

区切り文字を空文字列にすることはできません。

# NULL_VALUE

区切り文字を NULL にすることはできません。

# SINGLE_BACKSLASH

単一のバックスラッシュは禁止されています。エスケープシーケンスの開始として特別な意味を持ちます。バックスラッシュ文字を取得するには、2 つのバックスラッシュを含む文字列を区切り文字として渡してください。

# UNSUPPORTED_SPECIAL_CHARACTER

区切り文字にサポートされていない特殊文字: <str>

42602 # INVALID_IDENTIFIER

引用符で囲まれていない識別子 <ident> は無効であり、<ident> としてバッククォートする必要があります。引用符で囲まれていない識別子は、ASCII 文字 (a-z、A-Z)、数字 (0-9)、およびアンダースコア (_) のみを含めることができます。また、引用符で囲まれていない識別子は数字で始まってはなりません。データソースやメタストアによって、有効な識別子に追加の制限が課される場合があります。

42602 # INVALID_PROPERTY_KEY

<key> は無効なプロパティキーです。引用符を使用してください。例: SET <key>=<value>

42602 # INVALID_PROPERTY_VALUE

<value> は無効なプロパティ値です。引用符を使用してください。例: SET <key>=<value>

42602 # INVALID_SCHEMA_OR_RELATION_NAME

<name> はテーブル/スキーマの有効な名前ではありません。有効な名前には英字、数字、および _ のみを含めることができます。

42604 # AS_OF_JOIN

as-of join が無効です。

# TOLERANCE_IS_NON_NEGATIVE

入力引数 tolerance は非負である必要があります。

# TOLERANCE_IS_UNFOLDABLE

入力引数 tolerance は定数である必要があります。

# UNSUPPORTED_DIRECTION

as-of join の方向 '<direction>' はサポートされていません。サポートされている as-of join の方向は <supported> です。

42604 # EMPTY_JSON_FIELD_VALUE

データ型 <dataType> の空文字列の解析に失敗しました。

42604 # INVALID_ESC

無効なエスケープ文字列が見つかりました: <invalidEscape>。エスケープ文字列には 1 文字のみ含めることができます。

42604 # INVALID_ESCAPE_CHAR

EscapeChar は長さ 1 の文字列リテラルである必要がありますが、<sqlExpr> が見つかりました。

42604 # INVALID_TYPED_LITERAL

型指定リテラル <valueType> の値が無効です: <value>

42605 # WRONG_NUM_ARGS

<functionName><expectedNum> 個のパラメータを必要としますが、実際の数は <actualNum> です。

# WITHOUT_SUGGESTION

修正については、「<docroot>/sql-ref-functions.html」を参照してください。

# WITH_SUGGESTION

この関数を <legacyNum> 個のパラメータで呼び出す必要がある場合は、レガシー構成 <legacyConfKey><legacyConfValue> に設定してください。

42607 # NESTED_AGGREGATE_FUNCTION

別の集計関数の引数で集計関数を使用することは許可されていません。サブクエリで内部の集計関数を使用してください。

42608 # DEFAULT_PLACEMENT_INVALID

MERGE、INSERT、UPDATE、または SET VARIABLE コマンドの DEFAULT キーワードは、式の一部であったため、ターゲット列に直接代入できませんでした。例: UPDATE SET c1 = DEFAULT は許可されますが、UPDATE T SET c1 = DEFAULT + 1 は許可されません。

42608 # NO_DEFAULT_COLUMN_VALUE_AVAILABLE

<colName> は null を許容せず、デフォルト値もないため、デフォルト値を決定できません。

42611 # CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

イベントタイム列を再割り当てするには、ウォーターマークを定義する必要があります。ストリーミングクエリでウォーターマーク定義が見つかりませんでした。

42611 # IDENTITY_COLUMNS_ILLEGAL_STEP

IDENTITY 列のステップは 0 にすることはできません。

42613 # INCOMPATIBLE_JOIN_TYPES

結合タイプ <joinType1><joinType2> は互換性がありません。

42613 # INVALID_JOIN_TYPE_FOR_JOINWITH

joinWith の結合タイプが無効です: <joinType>

42613 # INVALID_LATERAL_JOIN_TYPE

<joinType> JOIN は LATERAL 相関とともに使用することはできません。これは、OUTER サブクエリが結合パートナーに相関できないためです。LATERAL 相関を削除するか、代わりに INNER JOIN または LEFT OUTER JOIN を使用してください。

42613 # INVALID_QUERY_MIXED_QUERY_PARAMETERS

パラメータ化されたクエリは、位置パラメータまたは名前付きパラメータのいずれかを使用する必要があります。両方を使用することはできません。

42613 # INVALID_SINGLE_VARIANT_COLUMN

ユーザー指定のスキーマも存在する場合、singleVariantColumn オプションは使用できません。

42613 # NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

MERGE ステートメントに複数の MATCHED 句がある場合、条件を省略できるのは最後の MATCHED 句のみです。

42613 # NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

MERGE ステートメントに複数の NOT MATCHED BY SOURCE 句がある場合、条件を省略できるのは最後の NOT MATCHED BY SOURCE 句のみです。

42613 # NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

MERGE ステートメントに複数の NOT MATCHED [BY TARGET] 句がある場合、条件を省略できるのは最後の NOT MATCHED [BY TARGET] 句のみです。

42613 # STDS_CONFLICT_OPTIONS

<options> オプションは同時に指定できません。いずれか 1 つを指定してください。

42614 # DUPLICATE_CLAUSES

重複した句が見つかりました: <clauseName>。いずれか 1 つを削除してください。

42614 # REPEATED_CLAUSE

<clause> 句は、<operation> 操作ごとに最大 1 回しか使用できません。

42616 # INVALID_SPARK_CONFIG

無効な Spark 設定

# INVALID_EXECUTOR_HEARTBEAT_INTERVAL

<networkTimeoutKey>=<networkTimeoutValue>ms の値は、<executorHeartbeatIntervalKey>=<executorHeartbeatIntervalValue>ms の値より大きくする必要があります。

# INVALID_EXECUTOR_MEMORY_OPTIONS

<executorOptsKey> では、最大ヒープメモリ設定を指定することはできません (was '<javaOpts>')。代わりに spark.executor.memory を使用してください。

# INVALID_EXECUTOR_SPARK_OPTIONS

<executorOptsKey> では、Spark オプションを設定することはできません (was '<javaOpts>')。SparkConf で直接設定するか、./bin/spark-submit を使用する際にプロパティファイルで設定してください。

# INVALID_MEMORY_FRACTION

<memoryFractionKey> は 0 から 1 の間である必要があります (was '<memoryFractionValue>')。

# INVALID_SPARK_SUBMIT_DEPLOY_MODE_KEY

<sparkSubmitDeployModeKey> は "cluster" または "client" のみ指定できます。

# NETWORK_AUTH_MUST_BE_ENABLED

暗号化を有効にする場合は、<networkAuthEnabledConf> を有効にする必要があります。

42616 # STDS_INVALID_OPTION_VALUE

ソースオプション '<optionName>' の値が無効です。

# IS_EMPTY

空にすることはできません。

# IS_NEGATIVE

負の値にすることはできません。

# WITH_MESSAGE

<message>

42617 # PARSE_EMPTY_STATEMENT

構文エラー、予期しない空のステートメント。

42621 # UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

生成列 <fieldName> を生成式 <expressionStr> で作成することはできません。理由は <reason> です。

42623 # ADD_DEFAULT_UNSUPPORTED

DEFAULT 値は、既存のデータソースに新しい列を追加する際にはサポートされていないため、<statementType> コマンドの実行に失敗しました。テーブルプロバイダー: "<dataSource>"。

42623 # DEFAULT_UNSUPPORTED

DEFAULT 値は、テーブルプロバイダー: "<dataSource>" のデータソースではサポートされていないため、<statementType> コマンドの実行に失敗しました。

42623 # GENERATED_COLUMN_WITH_DEFAULT_VALUE

列にはデフォルト値と生成式の両方を含めることはできませんが、列 <colName> はデフォルト値 (<defaultValue>) と生成式 (<genExpr>) を持っています。

42623 # IDENTITY_COLUMN_WITH_DEFAULT_VALUE

列にはデフォルト値とIDENTITY列の指定の両方を含めることはできませんが、列 <colName> はデフォルト値 (<defaultValue>) と IDENTITY 列の指定 (<identityColumnSpec>) を持っています。

42623 # INVALID_DEFAULT_VALUE

宛先列または変数 <colName> に DEFAULT 値 <defaultValue> があるため、<statement> コマンドの実行に失敗しました。

# DATA_TYPE

<expectedType> 型が必要ですが、ステートメントは互換性のない <actualType> 型の値を提供しました。

# NOT_CONSTANT

クエリ計画時に値が既知の定数式ではありません。

# SUBQUERY_EXPRESSION

サブクエリ式を含んでいます。

# UNRESOLVED_EXPRESSION

有効な式として解決できません。

42701 # DUPLICATE_ASSIGNMENTS

列または変数の <nameList> が代入ターゲットとして複数回出現します。

42701 # EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

この EXECUTE IMMEDIATE コマンドの USING 句には、同じエイリアス (<aliases>) を持つ複数の引数が含まれていました。これは無効です。コマンドを更新して一意のエイリアスを指定し、再度試してください。

42702 # AMBIGUOUS_COLUMN_OR_FIELD

列またはフィールド <name> は曖昧で、<n> 件の一致があります。

42702 # AMBIGUOUS_COLUMN_REFERENCE

<name> は曖昧です。これは、複数の DataFrame を結合し、これらの DataFrame の一部が同じであるためです。この列は DataFrame のいずれかを指していますが、Spark はどちらであるかを判断できません。結合する前に、DataFrame を DataFrame.alias で異なる名前でエイリアス化し、修飾名で列を指定してください。例: df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))

42702 # AMBIGUOUS_LATERAL_COLUMN_ALIAS

LATERAL 列エイリアス <name> は曖昧で、<n> 件の一致があります。

42702 # EXCEPT_OVERLAPPING_COLUMNS

EXCEPT リストの列は一意で重複しない必要がありますが、(<columns>) が取得されました。

42703 # COLUMN_NOT_DEFINED_IN_TABLE

<colType><colName> はテーブル <tableName> で定義されていません。定義済みのテーブル列は次のとおりです: <tableCols>

42703 # COLUMN_NOT_FOUND

<colName> が見つかりません。SQL 設定 <caseSensitiveConfig> に従って、スペルと列名の正しさを確認してください。

42703 # UNRESOLVED_COLUMN

名前 <objectName> の列、変数、または関数パラメータを解決できません。

# WITHOUT_SUGGESTION
# WITH_SUGGESTION

次のいずれかを意味していましたか? [<proposal>]。

42703 # UNRESOLVED_FIELD

名前 <fieldName> のフィールドは、struct-type 列 <columnPath> では解決できません。

# WITHOUT_SUGGESTION
# WITH_SUGGESTION

次のいずれかを意味していましたか? [<proposal>]。

42703 # UNRESOLVED_MAP_KEY

<objectName> をマップキーとして解決できません。キーが文字列リテラルの場合は、単一引用符 '' で囲んでください。

# WITHOUT_SUGGESTION
# WITH_SUGGESTION

それ以外では、次のいずれかの列を意味していましたか? [<proposal>]。

42703 # UNRESOLVED_USING_COLUMN_FOR_JOIN

USING 列 <colName> は、結合の <side> 側で解決できません。<side> 側の列: [<suggestion>]。

42704 # AMBIGUOUS_REFERENCE

参照 <name> は曖昧です。次のいずれかである可能性があります: <referenceNames>

42704 # CANNOT_RESOLVE_DATAFRAME_COLUMN

DataFrame 列 <name> を解決できません。これはおそらく、df1.select(df2.col("a")) のような無効な参照のためです。

42704 # CANNOT_RESOLVE_STAR_EXPAND

入力列 <columns> が指定されている <targetString>.* を解決できません。指定されたテーブルまたは構造体が入力列で利用可能であることを確認してください。

42704 # CODEC_SHORT_NAME_NOT_FOUND

コーデック <codecName> の短縮名が見つかりません。

42704 # COLLATION_INVALID_NAME

<collationName> は正しい照合順序名を表していません。提案されている有効な照合順序名: [<proposals>]。

42704 # COLLATION_INVALID_PROVIDER

<provider> は正しい照合順序プロバイダーを表していません。サポートされているプロバイダーは次のとおりです: [<supportedProviders>]。

42704 # DATA_SOURCE_NOT_EXIST

データソース '<provider>' が見つかりません。データソースが登録されていることを確認してください。

42704 # DEFAULT_DATABASE_NOT_EXISTS

デフォルトデータベース <defaultDatabase> が存在しません。最初に作成するか、デフォルトデータベースを <defaultDatabase> に変更してください。

42704 # ENCODER_NOT_FOUND

Spark SQL 内部表現の型 <typeName> のエンコーダが見つかりません。入力型を '<docroot>/sql-ref-datatypes.html' でサポートされている型のいずれかに変更することを検討してください。

42704 # FIELD_NOT_FOUND

構造体フィールド <fieldName><fields> に存在しません。

42704 # INDEX_NOT_FOUND

テーブル <tableName> のインデックス <indexName> が見つかりません。

42704 # SCHEMA_NOT_FOUND

スキーマ <schemaName> が見つかりません。スキーマとカタログのスペルと正しさを確認してください。名前にカタログを修飾しなかった場合は、現在の current_schema() の出力を確認するか、正しいカタログで名前を修飾してください。DROP でエラーを許容するには、DROP SCHEMA IF EXISTS を使用してください。

42704 # UNRECOGNIZED_SQL_TYPE

認識されない SQL 型 - 名前: <typeName>、ID: <jdbcType>

42704 # UNRECOGNIZED_STATISTIC

統計 <stats> は認識されません。有効な統計には、countcount_distinctapprox_count_distinctmeanstddevminmax、およびパーセンタイル値が含まれます。パーセンタイルは、0% から 100% の範囲の数値で、その後に '%' を付けたものでなければなりません。

42710 # ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

ALTER TABLE <type><columnName> は、ディスクリプタ "<optionName>" を複数回指定していますが、これは無効です。

42710 # CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

CREATE TABLE 列 <columnName> は、ディスクリプタ "<optionName>" を複数回指定していますが、これは無効です。

42710 # DATA_SOURCE_ALREADY_EXISTS

データソース '<provider>' は既に存在します。新しいデータソースには別の名前を選択してください。

42710 # DUPLICATED_METRICS_NAME

メトリック名は一意ではありません: <metricName>。異なる結果を持つメトリックに同じ名前を使用することはできません。ただし、同じ結果と名前を持つメトリックの複数のインスタンスは許可されます (例: 自己結合)。

42710 # FIELD_ALREADY_EXISTS

<struct><fieldNames> が既に存在するため、列を <op> することはできません。

42710 # FOUND_MULTIPLE_DATA_SOURCES

名前 '<provider>' を持つ複数のデータソースが検出されました。データソースがクラスパスに登録されており、かつ存在していないことを確認してください。

42710 # INDEX_ALREADY_EXISTS

インデックス <indexName> は既に存在するため、テーブル <tableName> に作成できません。

42710 # LOCATION_ALREADY_EXISTS

管理対象テーブルを <identifier> という名前にすることはできません。関連付けられた場所 <location> が既に存在します。別のテーブル名を選択するか、既存の場所を先に削除してください。

42710 # MULTIPLE_XML_DATA_SOURCE

名前 <provider> (<sourceNames>) を持つ複数のデータソースが検出されました。完全修飾クラス名を指定するか、クラスパスから <externalSource> を削除してください。

42711 # COLUMN_ALREADY_EXISTS

<columnName> は既に存在します。別の名前を選択するか、既存の列をリネームしてください。

42711 # DUPLICATE_ROUTINE_RETURNS_COLUMNS

ユーザー定義ルーチンの RETURNS 句の列リストに重複する列があります <routineName>: <columns>

42713 # ARTIFACT_ALREADY_EXISTS

アーティファクト <normalizedRemoteRelativePath> は既に存在します。上書きできないため、新しいアーティファクトには別の名前を選択してください。

42713 # DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

Arrow Struct での重複したフィールド名は許可されません。<fieldNames> を取得しました。

42713 # STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

静的パーティション列 <staticName> が列リストにも指定されています。

42723 # ROUTINE_ALREADY_EXISTS

<existingRoutineType> という名前の <newRoutineType> が既に存在するため、<newRoutineType> <routineName> を作成できません。別の名前を選択するか、既存の <existingRoutineType> を削除または置換するか、IF NOT EXISTS 句を追加して既存の <newRoutineType> を許容してください。

42723 # VARIABLE_ALREADY_EXISTS

変数 <variableName> は既に存在するため作成できません。別の名前を選択するか、既存の変数を削除または置換してください。

42734 # DUPLICATE_CONDITION_IN_SCOPE

スコープ内に重複した条件 <condition> が見つかりました。いずれか 1 つを削除してください。

42734 # DUPLICATE_EXCEPTION_HANDLER

重複したハンドラーが見つかりました。いずれか 1 つを削除してください。

# CONDITION

同じ条件 <condition> に対する重複したハンドラーが見つかりました。

# SQLSTATE

同じ SQLSTATE <sqlState> に対する重複したハンドラーが見つかりました。

42734 # DUPLICATE_ROUTINE_PARAMETER_NAMES

ユーザー定義ルーチン <routineName> のパラメータリストに重複した名前があります: <names>

4274K # DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

ルーチン <routineName> の呼び出しは、同じパラメータ名 <parameterName> に対する複数の引数代入が含まれているため無効です。

# BOTH_POSITIONAL_AND_NAMED

位置引数と名前付き引数が同じパラメータを参照していました。このパラメータを参照する名前付き引数を削除してください。

# DOUBLE_NAMED_ARGUMENT_REFERENCE

複数の名前付き引数が同じパラメータを参照していました。値を 1 回だけ代入してください。

4274K # NAMED_PARAMETERS_NOT_SUPPORTED

関数 <functionName> では名前付きパラメータはサポートされていません。代わりに、位置引数を使用してクエリを再試行してください。

4274K # REQUIRED_PARAMETER_NOT_FOUND

ルーチン <routineName> を呼び出すことはできません。パラメータ <parameterName> が必須ですが、ルーチン呼び出しで値が供給されなかったためです。ルーチン呼び出しを更新して、引数値 (位置 <index> または名前で) を供給し、クエリを再試行してください。

4274K # UNEXPECTED_POSITIONAL_ARGUMENT

ルーチン <routineName> を呼び出すことはできません。<parameterName> に代入された名前付き引数の後に位置引数が含まれているためです。位置引数を先に配置するように並べ替え、クエリを再試行してください。

4274K # UNRECOGNIZED_PARAMETER_NAME

ルーチン <routineName> を呼び出すことはできません。ルーチン呼び出しに、名前 <argumentName> の引数に対する名前付き引数参照が含まれていましたが、このルーチンにはこの名前の引数を含むシグネチャが含まれていません。次のいずれかを意味していましたか? [<proposal>]。

42802 # ASSIGNMENT_ARITY_MISMATCH

代入またはエイリアスされた列または変数の数: <numTarget> が、ソース式の数: <numExpr> と一致しません。

42802 # STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

状態フルプロセッサ操作=<operationType> を無効なハンドル状態=<handleState> で実行できませんでした。

42802 # STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

状態フルプロセッサ操作=<operationType> を無効な timeMode=<timeMode> で実行できませんでした。

42802 # STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

名前 <stateVarName> の状態変数が StatefulProcessor で既に定義されています。

42802 # STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

timeMode=<timeMode> の状態=<stateName> に TTL を使用できません。代わりに TimeMode.ProcessingTime() を使用してください。

42802 # STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

状態ストア操作=<operationType>、状態=<stateName> に対する TTL 期間はゼロより大きい必要があります。

42802 # STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

不明な時間モード <timeMode>。受け入れられる timeMode モードは 'none'、'processingTime'、'eventTime' です。

42802 # STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

サポートされていない開始文字と名前=<colFamilyName> を持つ列ファミリーの作成に失敗しました。

42802 # STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

無効な名前=<colFamilyName> を持つ列ファミリー操作=<operationName> の実行に失敗しました。列ファミリー名は空にしたり、先頭/末尾にスペースを含めたり、予約語=default を使用したりすることはできません。

42802 # STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

列ファミリー=<colFamilyName>、oldSchema=<oldSchema>、newSchema=<newSchema> との非互換なスキーマ変換。

42802 # STATE_STORE_HANDLE_NOT_INITIALIZED

この StatefulProcessor のハンドルは初期化されていません。StatefulProcessor は transformWithState 演算子内でのみ使用してください。

42802 # STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

範囲スキャンエンコーダの順序付けられた列の数=<numOrderingCols> が正しくありません。順序付けられた列の数はゼロであったり、スキーマ列の数より大きかったりすることはできません。

42802 # STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

プレフィックススキャンエンコーダのプレフィックス列の数=<numPrefixCols> が正しくありません。プレフィックス列はゼロであったり、スキーマ列の数以上であったりすることはできません。

42802 # STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

Null 型の順序付けられた列 (名前=<fieldName>、インデックス=<index>) は、範囲スキャンエンコーダではサポートされていません。

42802 # STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

状態ストア操作=<operationType> は、欠落している列ファミリー=<colFamilyName> ではサポートされていません。

42802 # STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

可変サイズの順序付けられた列 (名前=<fieldName>、インデックス=<index>) は、範囲スキャンエンコーダではサポートされていません。

42802 # UDTF_ALIAS_NUMBER_MISMATCH

AS 句で指定されたエイリアスの数が、UDTF から出力される列の数と一致しません。期待されるエイリアスは <aliasesSize> 件でしたが、取得されたのは <aliasesNames> 件です。提供されるエイリアスの数が UDTF から出力される列の数と一致することを確認してください。

42802 # UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

ユーザー定義テーブル関数の評価に失敗しました。これは、その 'analyze' メソッドが、不要なエイリアス <aliasName> を含む OrderingColumn を要求したためです。このエイリアスを削除してから、クエリを再試行してください。

42802 # UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

ユーザー定義テーブル関数の評価に失敗しました。これは、その 'analyze' メソッドが、対応するエイリアスを含まない要求された 'select' 式 (<expression>) を返したためです。UDTF を更新してそこでエイリアスを指定し、クエリを再試行してください。

42803 # GROUPING_COLUMN_MISMATCH

グループ化の列 (<grouping>) は、グループ化列 <groupingColumns> に見つかりません。

42803 # GROUPING_ID_COLUMN_MISMATCH

grouping_id の列 (<groupingIdColumn>) がグループ化列 (<groupByColumns>) と一致しません。

42803 # MISSING_AGGREGATION

集計されていない式 <expression> は、GROUP BY 句に参加していない列に基づいています。列または式を GROUP BY に追加するか、式を集計するか、グループ内の値のいずれかが返されることを気にしない場合は <expressionAnyValue> を使用してください。

42803 # MISSING_GROUP_BY

クエリに GROUP BY 句が含まれていません。GROUP BY を追加するか、OVER 句を使用してウィンドウ関数に変換してください。

42803 # UNRESOLVED_ALL_IN_GROUP_BY

SELECT 句に基づいた GROUP BY ALL のグループ化列を推論できません。グループ化列を明示的に指定してください。

42804 # INVALID_CORRUPT_RECORD_TYPE

破損レコードの列 <columnName> は、NULL 可能 STRING 型である必要がありますが、<actualType> が取得されました。

42804 # TRANSPOSE_INVALID_INDEX_COLUMN

TRANSPOSE のインデックス列が無効です。理由は: <reason>

42805 # GROUP_BY_POS_OUT_OF_RANGE

GROUP BY 位置 <index> は SELECT リストにありません (有効な範囲は [1, <size>])。

42805 # ORDER_BY_POS_OUT_OF_RANGE

ORDER BY 位置 <index> は SELECT リストにありません (有効な範囲は [1, <size>])。

42809 # EXPECT_PERMANENT_VIEW_NOT_TEMP

'<operation>' は永続ビューを期待していますが、<viewName> は一時ビューです。

42809 # EXPECT_TABLE_NOT_VIEW

'<operation>' はテーブルを期待していますが、<viewName> はビューです。

# NO_ALTERNATIVE
# USE_ALTER_VIEW

代わりに ALTER VIEW を使用してください。

42809 # EXPECT_VIEW_NOT_TABLE

テーブル <tableName><operation> をサポートしていません。

# NO_ALTERNATIVE
# USE_ALTER_TABLE

代わりに ALTER TABLE を使用してください。

42809 # FORBIDDEN_OPERATION

操作 <statement><objectType>: <objectName> では許可されていません。

42809 # NOT_A_PARTITIONED_TABLE

<tableIdentWithDB> はパーティション化されていないテーブルであるため、操作 <operation> は許可されていません。

42809 # UNSUPPORTED_INSERT

ターゲットへの挿入はできません。

# MULTI_PATH

単一パスを持つリレーションにのみデータを書き込むことができますが、指定されたパスは <paths> です。

# NOT_ALLOWED

ターゲットリレーション <relationId> は挿入を許可していません。

# NOT_PARTITIONED

ターゲットリレーション <relationId> はパーティション化されていません。

# RDD_BASED

RDD ベースのテーブルは許可されていません。

# READ_FROM

ターゲットリレーション <relationId> も読み取られています。

42809 # WRONG_COMMAND_FOR_OBJECT_TYPE

操作 <operation><requiredType> を必要とします。しかし、<objectName><foundType> です。代わりに <alternative> を使用してください。

42815 # EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

前のノードは eventTime=<emittedRowEventTime> の行を出力しましたが、これは current_watermark_value=<currentWatermark> より古いです。これにより、実行パイプラインの下流にある状態フル演算子で正確性の問題が発生する可能性があります。現在のグローバルウォーターマーク値よりも後の行を出力するように演算子ロジックを修正してください。

42818 # INCOMPARABLE_PIVOT_COLUMN

無効なピボット列 <columnName>。ピボット列は比較可能である必要があります。

42822 # EXPRESSION_TYPE_IS_NOT_ORDERABLE

列式 <expr> は、その型 <exprType> が順序付け可能ではないため、ソートできません。

42822 # GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

<sqlExpr> は、そのデータ型 <dataType> が順序付け可能なデータ型ではないため、グループ化式として使用できません。

42822 # HINT_UNSUPPORTED_FOR_JDBC_DIALECT

オプション hint は、JDBC データソースの <jdbcDialect> ではサポートされていません。サポートされている方言は MySQLDialectOracleDialect、および DatabricksDialect です。

42823 # INVALID_SUBQUERY_EXPRESSION

無効なサブクエリ

# SCALAR_SUBQUERY_RETURN_MORE_THAN_ONE_OUTPUT_COLUMN

スカラーサブクエリは 1 つの列のみを返す必要がありますが、<number> を取得しました。

# STREAMING_QUERY

ストリーミングクエリはサブクエリ式では許可されていません。

42825 # CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

互換性のないデータ型 <left><right> をマージできませんでした。マージされている列のデータ型を確認し、互換性があることを確認してください。必要に応じて、マージを試みる前に列を互換性のあるデータ型にキャストすることを検討してください。

42825 # INCOMPATIBLE_COLUMN_TYPE

<operator> は、互換性のある列型を持つテーブルでのみ実行できます。<tableOrdinalNumber> テーブルの <columnOrdinalNumber> 列は <dataType1> 型ですが、最初のテーブルの同じ列の <dataType2> と互換性がありません。<hint>

42826 # NUM_COLUMNS_MISMATCH

<operator> は、同じ列数を持つ入力でのみ実行できますが、最初の入力には <firstNumColumns> 列があり、<invalidOrdinalNum> 入力には <invalidNumColumns> 列があります。

42826 # NUM_TABLE_VALUE_ALIASES_MISMATCH

指定されたエイリアスの数が、出力列の数と一致しません。関数名: <funcName>; エイリアスの数: <aliasesNum>; 出力列の数: <outColsNum>

42836 # INVALID_RECURSIVE_CTE

無効な再帰的定義が見つかりました。再帰クエリには、2 つの子を持つ UNION または UNION ALL ステートメントが含まれている必要があります。最初の子は、再帰参照を含まないアンカータームである必要があります。

42836 # INVALID_RECURSIVE_REFERENCE

WITH RECURSIVE 句内に無効な再帰的参照が見つかりました。

# NUMBER

1 つの再帰 CTE に対する複数の自己参照は許可されていません。

# PLACE

再帰参照は、左外部/セミ/アンチ結合の右側、右外部結合の左側、フル外部結合、集計、およびサブクエリ式では使用できません。

42836 # RECURSIVE_CTE_IN_LEGACY_MODE

レガシー CTE 優先順位モード (spark.sql.legacy.ctePrecedencePolicy=LEGACY) では、再帰的定義を使用できません。

42836 # RECURSIVE_CTE_WHEN_INLINING_IS_FORCED

CTE インライン化が強制されている場合、再帰的定義を使用できません。

42845 # AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

非決定的式 <sqlExpr> は、集計関数の引数に含めるべきではありません。

42846 # CANNOT_CAST_DATATYPE

<sourceType><targetType> にキャストできません。

42846 # CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

Protobuf <protobufColumn> を SQL <sqlColumn> に変換できません。スキーマが互換性がないためです (protobufType = <protobufType>、sqlType = <sqlType>)。

42846 # CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

Protobuf の <protobufType> を SQL 型 <toType> に変換できません。

42846 # CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQL <sqlColumn> を Protobuf <protobufColumn> に変換できません。スキーマが互換性がないためです (protobufType = <protobufType>、sqlType = <sqlType>)。

42846 # CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQL <sqlColumn> を Protobuf <protobufColumn> に変換できません。<data> が enum で定義された値に含まれていないためです: <enumString>

42846 # CANNOT_UP_CAST_DATATYPE

<expression><sourceType> から <targetType> へのアップキャストはできません。<details>

42846 # EXPRESSION_DECODING_FAILED

<expressions> の行を値にデコードできませんでした。

42846 # EXPRESSION_ENCODING_FAILED

<expressions> の値を行にエンコードできませんでした。

42846 # INVALID_PARTITION_VALUE

パーティション列 <columnName> の値 <value> をデータ型 <dataType> にキャストできませんでした。値がこのパーティション列の期待されるデータ型と一致していることを確認してください。

42846 # PARQUET_CONVERSION_FAILURE

データ型 <dataType> (Parquet 型 <parquetType>) の Parquet コンバーターを作成できませんでした。

# DECIMAL

Parquet DECIMAL 型は、INT32、INT64、FIXED_LEN_BYTE_ARRAY、または BINARY でのみサポートされます。

# UNSUPPORTED

サポートされていることを確認して、変換を修正してください。

# WITHOUT_DECIMAL_METADATA

この列/フィールドを Spark BINARY 型として読み込んでください。

42846 # PARQUET_TYPE_ILLEGAL

不正な Parquet 型: <parquetType>

42846 # PARQUET_TYPE_NOT_RECOGNIZED

認識されない Parquet 型: <field>

42846 # PARQUET_TYPE_NOT_SUPPORTED

まだサポートされていない Parquet 型: <parquetType>

42846 # UNEXPECTED_SERIALIZER_FOR_CLASS

クラス <className> に予期しない式シリアライザーがあります。「STRUCT」または「IF」(「STRUCT」を返す)を期待していましたが、<expr> が見つかりました。

42883 # ROUTINE_NOT_FOUND

ルーチン <routineName> が見つかりません。スペルとスキーマおよびカタログの正確性を確認してください。名前をスキーマとカタログで修飾しなかった場合は、current_schema() の出力を確認するか、正しいスキーマとカタログで名前を修飾してください。DROP でエラーを許容するには、DROP ... IF EXISTS を使用してください。

42883 # UNRESOLVABLE_TABLE_VALUED_FUNCTION

<name> をテーブル値関数として解決できませんでした。<name> がテーブル値関数として定義されており、すべての必須パラメータが正しく指定されていることを確認してください。<name> が定義されていない場合は、使用する前にテーブル値関数を作成してください。テーブル値関数の定義の詳細については、Apache Spark のドキュメントを参照してください。

42883 # UNRESOLVED_ROUTINE

検索パス <searchPath> 上でルーチン <routineName> を解決できません。

42883 # UNRESOLVED_VARIABLE

検索パス <searchPath> 上で変数 <variableName> を解決できません。

42883 # VARIABLE_NOT_FOUND

変数 <variableName> が見つかりません。スペルとスキーマおよびカタログの正確性を確認してください。名前をスキーマとカタログで修飾しなかった場合は、current_schema() の出力を確認するか、正しいスキーマとカタログで名前を修飾してください。DROP でエラーを許容するには、DROP VARIABLE IF EXISTS を使用してください。

428B3 # INVALID_SQLSTATE

無効な SQLSTATE 値: '<sqlState>'。SQLSTATE は正確に 5 文字で、A-Z および 0-9 のみを含む必要があります。SQLSTATE は '00'、'01'、または 'XX' で始まってはいけません。

428C4 # UNPIVOT_VALUE_SIZE_MISMATCH

すべてのアンピボット値列は、値列名 (<names>) と同じサイズでなければなりません。

428EK # TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

CREATE TEMPORARY VIEW または対応する Dataset API は、単一パートのビュー名のみを受け入れますが、<actualName> が渡されました。

428FR # CANNOT_ALTER_COLLATION_BUCKET_COLUMN

ALTER TABLE (ALTER|CHANGE) COLUMN は、バケット列の型/サブタイプの照合順序を変更できませんが、テーブル <tableName> でバケット列 <columnName> が見つかりました。

428FR # CANNOT_ALTER_PARTITION_COLUMN

ALTER TABLE (ALTER|CHANGE) COLUMN はパーティション列ではサポートされていませんが、テーブル <tableName> でパーティション列 <columnName> が見つかりました。

428FT # PARTITIONS_ALREADY_EXIST

テーブル <tableName> のパーティション <partitionList> は既に追加または名前変更されています。別の名前を選択するか、既存のパーティションを削除するか、IF NOT EXISTS 句を追加して既存のパーティションを許容してください。

428FT # PARTITIONS_NOT_FOUND

テーブル <tableName> でパーティション <partitionList> が見つかりません。パーティション指定とテーブル名を確認してください。DROP でエラーを許容するには、ALTER TABLE … DROP IF EXISTS PARTITION を使用してください。

428H2 # EXCEPT_NESTED_COLUMN_INVALID_TYPE

EXCEPT 列 <columnName> は解決され、StructType であると期待されましたが、型 <dataType> が見つかりました。

428H2 # IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

データ型 <dataType> は IDENTITY 列ではサポートされていません。

42902 # UNSUPPORTED_OVERWRITE

読み取り中のターゲットを上書きすることはできません。

# PATH

ターゲットパスは <path> です。

# TABLE

ターゲットテーブルは <table> です。

42903 # GROUP_BY_AGGREGATE

集計関数は GROUP BY では許可されませんが、<sqlExpr> が見つかりました。

42903 # GROUP_BY_POS_AGGREGATE

GROUP BY <index> は、集計関数を含む式 <aggExpr> を参照しています。集計関数は GROUP BY では許可されません。

42903 # INVALID_AGGREGATE_FILTER

集計関数内の FILTER 式 <filterExpr> が無効です。

# CONTAINS_AGGREGATE

集計を含まない FILTER 式を期待していましたが、<aggExpr> が見つかりました。

# CONTAINS_WINDOW_FUNCTION

ウィンドウ関数を含まない FILTER 式を期待していましたが、<windowExpr> が見つかりました。

# NON_DETERMINISTIC

決定論的な FILTER 式を期待していました。

# NOT_BOOLEAN

BOOLEAN 型の FILTER 式を期待していました。

42903 # INVALID_WHERE_CONDITION

WHERE 条件 <condition> には無効な式が含まれています: <expressionList>。ウィンドウ関数、集計関数、およびジェネレータ関数を WHERE 句で使用しないようにクエリを書き換えてください。

42908 # SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

CLUSTER BY と CLUSTERED BY INTO BUCKETS の両方を指定することはできません。

42908 # SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

CLUSTER BY と PARTITIONED BY の両方を指定することはできません。

429BB # CANNOT_RECOGNIZE_HIVE_TYPE

Hive 型文字列: <fieldType>、列: <fieldName> を認識できません。フィールドに指定されたデータ型は Spark SQL で認識されません。指定されたフィールドのデータ型を確認し、有効な Spark SQL データ型であることを確認してください。有効なデータ型とその形式のリストについては、Spark SQL のドキュメントを参照してください。データ型が正しい場合は、サポートされている Spark SQL のバージョンを使用していることを確認してください。

42K01 # DATATYPE_MISSING_SIZE

データ型 <type> には長さパラメータが必要です。例: <type>(10)。長さを指定してください。

42K01 # INCOMPLETE_TYPE_DEFINITION

不完全な複合型

# ARRAY

「ARRAY」型の定義が不完全です。要素型を指定する必要があります。例: 「ARRAY<elementType>」。

# MAP

「MAP」型の定義が不完全です。キー型と値型を指定する必要があります。例: 「MAP<TIMESTAMP, INT>」。

# STRUCT

「STRUCT」型の定義が不完全です。少なくとも 1 つのフィールド型を指定する必要があります。例: 「STRUCT<name STRING, phone DECIMAL(10, 0)>」。

42K02 # DATA_SOURCE_NOT_FOUND

データソース: <provider> が見つかりませんでした。プロバイダー名が正しく、パッケージが適切に登録され、Spark のバージョンと互換性があることを確認してください。

42K03 # BATCH_METADATA_NOT_FOUND

バッチ <batchMetadataFile> が見つかりませんでした。

42K03 # CANNOT_LOAD_PROTOBUF_CLASS

名前 <protobufClassName> の Protobuf クラスを読み込めませんでした。<explanation>

42K03 # DATA_SOURCE_TABLE_SCHEMA_MISMATCH

データソーステーブルのスキーマが期待されるスキーマと一致しません。DataFrameReader.schema API を使用している場合、またはテーブルを作成している場合は、スキーマを指定しないでください。データソーススキーマ: <dsSchema> 期待されるスキーマ: <expectedSchema>

42K03 # LOAD_DATA_PATH_NOT_EXISTS

LOAD DATA の入力パスが存在しません: <path>

42K03 # PATH_NOT_FOUND

パスが存在しません: <path>

42K03 # RENAME_SRC_PATH_NOT_FOUND

<sourcePath> が見つからなかったため、名前の変更に失敗しました。

42K03 # STDS_FAILED_TO_READ_OPERATOR_METADATA

checkpointLocation=<checkpointLocation> および batchId=<batchId> のオペレーターメタデータの読み取りに失敗しました。ファイルが存在しないか、ファイルが破損しています。オペレーターメタデータを構築するためにストリーミングクエリを再実行し、エラーが続く場合は、関連するコミュニティまたはベンダーに報告してください。

42K03 # STDS_FAILED_TO_READ_STATE_SCHEMA

状態スキーマの読み取りに失敗しました。ファイルが存在しないか、ファイルが破損しています。オプション: <sourceOptions>。状態スキーマを構築するためにストリーミングクエリを再実行し、エラーが続く場合は、関連するコミュニティまたはベンダーに報告してください。

42K03 # STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

ストリーミング状態フルオペレーター名が状態メタデータのオペレーターと一致しません。これは、ユーザーが既存のストリーミングクエリの状態フルオペレーターを追加/削除/変更した場合に発生する可能性が高いです。メタデータの状態フルオペレーター: [<OpsInMetadataSeq>]; 現在のバッチの状態フルオペレーター: [<OpsInCurBatchSeq>]。

42K04 # FAILED_RENAME_PATH

宛先が既に存在するため、<sourcePath><targetPath> に名前変更できませんでした。

42K04 # PATH_ALREADY_EXISTS

パス <outputPath> は既に存在します。既存のパスを上書きするには、モードを「overwrite」に設定してください。

42K05 # INVALID_EMPTY_LOCATION

場所名は空文字列にできませんが、<location> が指定されました。

42K05 # REQUIRES_SINGLE_PART_NAMESPACE

<sessionCatalog> には単一パートのネームスペースが必要です。しかし、<namespace> が指定されました。

42K05 # SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

競合するネームスペースを持つ SHOW COLUMNS: <namespaceA> != <namespaceB>

42K06 # INVALID_OPTIONS

無効なオプション

# NON_MAP_FUNCTION

オプションには map() 関数を使用する必要があります。

# NON_STRING_TYPE

map() のキーと値の型は文字列でなければなりませんが、<mapType> が渡されました。

42K06 # STATE_STORE_INVALID_CONFIG_AFTER_RESTART

再起動間で <configName><oldConfig> から <newConfig> に変更することはできません。<configName><oldConfig> に設定するか、新しいチェックポイントディレクトリで再起動してください。

42K06 # STATE_STORE_INVALID_PROVIDER

指定された State Store Provider <inputClass> は org.apache.spark.sql.execution.streaming.state.StateStoreProvider を拡張していません。

42K06 # STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

クエリの再起動間で <stateVarName><newType> に変更することはできません。<stateVarName><oldType> に設定するか、新しいチェックポイントディレクトリで再起動してください。

42K06 # STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

指定された State Store Provider <inputClass> は org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay を拡張していません。そのため、状態データソースで snapshotStartBatchId または readChangeFeed オプションをサポートしていません。

42K06 # STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

状態スキーマファイルの数 <numStateSchemaFiles> が、このクエリの最大状態スキーマファイル数 <maxStateSchemaFiles> を超えています。追加されたもの: <addedColumnFamilies>、削除されたもの: <removedColumnFamilies>。'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' をより大きな数値に設定するか、状態スキーマの変更を元に戻してください。

42K06 # STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

状態スキーマの進化数 <numSchemaEvolutions> が、この列ファミリーで許可される最大状態スキーマの進化数 <maxSchemaEvolutions> を超えています。違反している列ファミリー: <colFamilyName>。'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' をより大きな数値に設定するか、状態スキーマの変更を元に戻してください。

42K07 # INVALID_SCHEMA

入力スキーマ <inputSchema> は有効なスキーマ文字列ではありません。

# NON_STRING_LITERAL

入力式は文字列リテラルであり、null であってはなりません。

# NON_STRUCT_TYPE

入力式は struct 型に評価されるべきですが、<dataType> が見つかりました。

# PARSE_ERROR

スキーマを解析できません: <reason>

42K08 # INVALID_SQL_ARG

sql() の引数 <name> は無効です。SQL リテラルまたは map()array()struct() などのコレクションコンストラクタ関数で置き換えることを検討してください。

42K08 # NON_FOLDABLE_ARGUMENT

関数 <funcName> は、パラメータ <paramName> に foldable な <paramType> 型の式を要求しますが、実際の引数は non-foldable です。

42K08 # NON_LITERAL_PIVOT_VALUES

ピボット値にはリテラル式が必要です。<expression> が見つかりました。

42K08 # SEED_EXPRESSION_IS_UNFOLDABLE

<exprWithSeed> のシード式 <seedExpr> は foldable である必要があります。

42K09 # COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

式に対する入力データ型を処理できません: <expression>

# BAD_INPUTS

<functionName> への入力データ型は有効である必要がありますが、入力型 <dataType> が見つかりました。

# MISMATCHED_TYPES

null許容、containsNull、valueContainsNull フラグを除き、すべての入力型は同じである必要がありますが、入力型 <inputTypes> が見つかりました。

# NO_INPUTS

入力データ型のコレクションは空であってはなりません。

42K09 # DATATYPE_MISMATCH

データ型の不一致により <sqlExpr> を解決できません

# ARRAY_FUNCTION_DIFF_TYPES

<functionName> への入力は、<dataType> の後に同じ要素型の値が続くべきでしたが、[<leftType>, <rightType>] です。

# BINARY_ARRAY_DIFF_TYPES

関数 <functionName> への入力は、同じ要素型を持つ 2 つの <arrayType> であるべきでしたが、[<leftType>, <rightType>] です。

# BINARY_OP_DIFF_TYPES

バイナリ演算子の左オペランドと右オペランドの型が互換性がありません (<left> および <right>)。

# BINARY_OP_WRONG_TYPE

バイナリ演算子には入力型 <inputType> が必要ですが、<actualDataType> が指定されています。

# BLOOM_FILTER_BINARY_OP_WRONG_TYPE

<functionName> への Bloom フィルタのバイナリ入力は、定数値またはスカラーサブクエリ式であるべきですが、<actual> です。

# BLOOM_FILTER_WRONG_TYPE

関数 <functionName> への入力は、<expectedLeft> の後に <expectedRight> を持つ値が続くべきでしたが、[<actual>] です。

# CANNOT_CONVERT_TO_JSON

<type> の列 <name> を JSON に変換できません。

# CANNOT_DROP_ALL_FIELDS

struct のすべてのフィールドを削除することはできません。

# CAST_WITHOUT_SUGGESTION

<srcType><targetType> にキャストできません。

# CAST_WITH_CONF_SUGGESTION

ANSI モードで <srcType><targetType> にキャストできません。<srcType><targetType> にキャストする必要がある場合は、<config><configVal> に設定できます。

# CAST_WITH_FUNC_SUGGESTION

<srcType><targetType> にキャストできません。<srcType> から <targetType> への値の変換には、代わりに <functionNames> 関数を使用できます。

# CREATE_MAP_KEY_DIFF_TYPES

関数 <functionName> の指定されたキーはすべて同じ型であるべきですが、<dataType> です。

# CREATE_MAP_VALUE_DIFF_TYPES

関数 <functionName> の指定された値はすべて同じ型であるべきですが、<dataType> です。

# CREATE_NAMED_STRUCT_WITHOUT_FOLDABLE_STRING

奇数位置には foldable な STRING 式のみが許可されますが、<inputExprs> です。

# DATA_DIFF_TYPES

<functionName> への入力はすべて同じ型であるべきですが、<dataType> です。

# FILTER_NOT_BOOLEAN

<type> のフィルタ式 <filter> はブール値ではありません。

# HASH_MAP_TYPE

関数 <functionName> への入力には、「MAP」型の要素を含めることはできません。Spark では、同じマップでもハッシュコードが異なる場合があるため、"MAP" 要素に対するハッシュ式は禁止されています。以前の動作を復元するには、「spark.sql.legacy.allowHashOnMapType」を「true」に設定してください。

# HASH_VARIANT_TYPE

関数 <functionName> への入力には、まだ「VARIANT」型の要素を含めることはできません。

# INPUT_SIZE_NOT_ONE

<exprName> の長さは 1 であるべきです。

# INVALID_ARG_VALUE

<inputName> の値は <requireType> リテラルで <validValues> である必要がありますが、<inputValue> が渡されました。

# INVALID_JSON_MAP_KEY_TYPE

入力スキーマ <schema> は、MAP のキー型として STRING のみを含めることができます。

# INVALID_JSON_SCHEMA

入力スキーマ <schema> は、struct、array、map、または variant である必要があります。

# INVALID_MAP_KEY_TYPE

マップのキーは <keyType> にすることはできません/含めることはできません。

# INVALID_ORDERING_TYPE

<functionName> は、型 <dataType> での順序付けをサポートしていません。

# INVALID_ROW_LEVEL_OPERATION_ASSIGNMENTS

<errors>

# INVALID_XML_MAP_KEY_TYPE

入力スキーマ <schema> は、MAP のキー型として STRING のみを含めることができます。

# IN_SUBQUERY_DATA_TYPE_MISMATCH

IN サブクエリの左辺の 1 つ以上の要素のデータ型が、サブクエリの出力のデータ型と互換性がありません。不一致の列: [<mismatchedColumns>]、左辺: [<leftType>]、右辺: [<rightType>]。

# IN_SUBQUERY_LENGTH_MISMATCH

IN サブクエリの左辺の列数とサブクエリの出力の列数が一致しません。左辺の列 (長さ: <leftLength>): [<leftColumns>]、右辺の列 (長さ: <rightLength>): [<rightColumns>]。

# MAP_CONCAT_DIFF_TYPES

<functionName> はすべて map 型であるべきですが、<dataType> です。

# MAP_FUNCTION_DIFF_TYPES

<functionName> への入力は、<dataType> の後に同じキー型の値が続くべきでしたが、[<leftType>, <rightType>] です。

# MAP_ZIP_WITH_DIFF_TYPES

<functionName> への入力は、互換性のあるキー型を持つ 2 つのマップであるべきでしたが、[<leftType>, <rightType>] です。

# NON_FOLDABLE_INPUT

入力 <inputName> は、foldable な <inputType> 式であるべきですが、<inputExpr> が渡されました。

# NON_STRING_TYPE

関数 <funcName> のすべての引数は文字列でなければなりません。

# NON_STRUCT_TYPE

入力 <inputName> は struct 式であるべきですが、<inputType> が渡されました。

# NULL_TYPE

Null 型の値は <functionName> の引数として使用できません。

# PARAMETER_CONSTRAINT_VIOLATION

<leftExprName>(<leftExprValue>) は <rightExprName>(<rightExprValue>) の <constraint> である必要があります。

# RANGE_FRAME_INVALID_TYPE

順序指定で使用されるデータ型 <orderSpecType> は、範囲フレームで使用されるデータ型 <valueBoundaryType> をサポートしていません。

# RANGE_FRAME_MULTI_ORDER

値境界を持つ範囲ウィンドウフレームは、複数のORDER BY 式を持つウィンドウ指定では使用できません: <orderSpec>

# RANGE_FRAME_WITHOUT_ORDER

範囲ウィンドウフレームは、順序付けされていないウィンドウ指定では使用できません。

# SEQUENCE_WRONG_INPUT_TYPES

<functionName> は間違ったパラメータ型を使用しています。パラメータ型は以下に準拠する必要があります: 1. 開始および停止式は同じ型に解決される必要があります。2. 開始および停止式が <startType> 型に解決される場合、ステップ式は <stepType> 型に解決される必要があります。3. それ以外の場合、開始および停止式が <otherStartType> 型に解決される場合、ステップ式は同じ型に解決される必要があります。

# SPECIFIED_WINDOW_FRAME_DIFF_TYPES

ウィンドウフレームの境界 <lower><upper> の型が同じではありません: <lowerType> <> <upperType>

# SPECIFIED_WINDOW_FRAME_INVALID_BOUND

ウィンドウフレームの上限 <upper> は、下限 <lower> に従っていません。

# SPECIFIED_WINDOW_FRAME_UNACCEPTED_TYPE

<location> 境界 <exprType> のデータ型が、期待されるデータ型 <expectedType> と一致しません。

# SPECIFIED_WINDOW_FRAME_WITHOUT_FOLDABLE

ウィンドウフレーム <location> 境界 <expression> はリテラルではありません。

# SPECIFIED_WINDOW_FRAME_WRONG_COMPARISON

ウィンドウフレームの下限は、上限に対して <comparison> である必要があります。

# STACK_COLUMN_DIFF_TYPES

列 (<columnIndex>) のデータ型が同じではありません: <leftType> (<leftParamIndex>) <> <rightType> (<rightParamIndex>)。

# TYPE_CHECK_FAILURE_WITH_HINT

<msg>``<hint>.

# UNEXPECTED_CLASS_TYPE

クラス <className> が見つかりません。

# UNEXPECTED_INPUT_TYPE

<paramIndex> パラメータは <requiredType> 型を要求しますが、<inputSql><inputType> 型です。

# UNEXPECTED_NULL

<exprName> は null であってはなりません。

# UNEXPECTED_RETURN_TYPE

<functionName><expectedType> 型を返す必要がありますが、実際は <actualType> 型です。

# UNEXPECTED_STATIC_METHOD

<className> で引数型に一致する静的メソッド <methodName> が見つかりません。

# UNSUPPORTED_INPUT_TYPE

<functionName> の入力は <dataType> 型のデータにすることはできません。

# VALUE_OUT_OF_RANGE

<exprName><valueRange> (現在の値 = <currentValue>) の間にある必要があります。

# WRONG_NUM_ARG_TYPES

式では<expectedNum>個の引数型が必要ですが、実際の個数は<actualNum>個です。

# WRONG_NUM_ENDPOINTS

区間を構築するにはエンドポイントの数は2以上である必要がありますが、実際の数は<actualNumber>個です。

42K09 # EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

イベント時刻<eventName>は無効な型<eventType>ですが、"TIMESTAMP"が期待されていました。

42K09 # INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

変数型は文字列型である必要がありますが、<varType>でした。

42K09 # PIVOT_VALUE_DATA_TYPE_MISMATCH

無効なピボット値「<value>」: 値のデータ型<valueType>は、ピボット列のデータ型<pivotType>と一致しません。

42K09 # TRANSPOSE_NO_LEAST_COMMON_TYPE

転置するには、インデックス列以外の列が共通の最小型を共有する必要がありますが、<dt1><dt2>は共有していません。

42K09 # UNEXPECTED_INPUT_TYPE

関数<functionName>のパラメータ<paramIndex><requiredType>型を必要としますが、<inputSql><inputType>型です。

42K09 # UNPIVOT_VALUE_DATA_TYPE_MISMATCH

アンピボットの値列は共通の最小型を共有する必要がありますが、一部の型は共有していません: [<types>]。

42K0A # UNPIVOT_REQUIRES_ATTRIBUTES

UNPIVOTは、<empty>式が与えられていない場合に、指定されたすべての<given>式が列であることを要求します。これらは列ではありません: [<expressions>]。

42K0A # UNPIVOT_REQUIRES_VALUE_COLUMNS

UNPIVOTには少なくとも1つの値列を指定する必要がありますが、指定されたすべての列がIDです。

42K0B # INCONSISTENT_BEHAVIOR_CROSS_VERSION

バージョンアップにより、異なる結果が得られる可能性があります。

# DATETIME_PATTERN_RECOGNITION

Spark 3.0以上: DateTimeFormatterでの<pattern>パターンの認識に失敗しました。1) Spark 3.0より前の動作を復元するには、<config>を"LEGACY"に設定できます。2) '<docroot>/sql-ref-datetime-pattern.html'のガイドに従って、有効な日時パターンを形成できます。

# DATETIME_WEEK_BASED_PATTERN

Spark 3.0以上: Spark 3.0以降、週ベースのパターンはすべてサポートされていません。検出された週ベースの文字: <c>。代わりにSQL関数EXTRACTを使用してください。

# PARSE_DATETIME_BY_NEW_PARSER

Spark 3.0以上: 新しいパーサーで<datetime>の解析に失敗しました。Spark 3.0より前の動作を復元するには<config>を"LEGACY"に設定するか、"CORRECTED"に設定して無効な日時文字列として扱うことができます。

# READ_ANCIENT_DATETIME

Spark 3.0以上: 1582-10-15より前の日付または1900-01-01T00:00:00Zより前のタイムスタンプを<format>ファイルから読み取ることは曖昧である可能性があります。ファイルはSpark 2.xまたはHiveのレガシーバージョンによって書き込まれた可能性があり、Spark 3.0+のProleptic Gregorianカレンダーとは異なるレガシーハイブリッドカレンダーを使用しています。詳細はSPARK-31404を参照してください。SQL設定<config>またはデータソースオプション<option>を"LEGACY"に設定すると、読み取り中にカレンダーの違いに基づいて日時値をリベースできます。日時値をそのまま読み取るには、SQL設定またはデータソースオプションを"CORRECTED"に設定してください。

# WRITE_ANCIENT_DATETIME

Spark 3.0以上: 1582-10-15より前の日付または1900-01-01T00:00:00Zより前のタイムスタンプを<format>ファイルに書き込むことは危険である可能性があります。ファイルは後でSpark 2.xまたはHiveのレガシーバージョンによって読み取られる可能性があり、Spark 3.0+のProleptic Gregorianカレンダーとは異なるレガシーハイブリッドカレンダーを使用しています。詳細はSPARK-31404を参照してください。最大限の相互運用性を得るために、書き込み中にカレンダーの違いに基づいて日時値をリベースするには、<config>を"LEGACY"に設定できます。または、書き込まれたファイルがSpark 3.0+またはProleptic Gregorianカレンダーを使用する他のシステムでのみ読み取られることが確実な場合は、設定を"CORRECTED"に設定して日時値をそのまま書き込むことができます。

42K0D # INVALID_LAMBDA_FUNCTION_CALL

無効なラムダ関数呼び出し。

# DUPLICATE_ARG_NAMES

ラムダ関数には重複する引数<args>があります。引数名を変更するか、<caseSensitiveConfig>を"true"に設定することを検討してください。

# NON_HIGHER_ORDER_FUNCTION

ラムダ関数は高階関数でのみ使用されるべきですが、そのクラスは<class>であり、高階関数ではありません。

# NUM_ARGS_MISMATCH

高階関数は<expectedNumArgs>個の引数を期待しますが、<actualNumArgs>個が渡されました。

# PARAMETER_DOES_NOT_ACCEPT_LAMBDA_FUNCTION

ラムダ関数を受け入れないパラメータにラムダ関数を渡しました。ラムダ関数の引数が正しい位置にあるか確認してください。

42K0E # INVALID_LIMIT_LIKE_EXPRESSION

limitのような式<expr>は無効です。

# DATA_TYPE

<name>式は整数型である必要がありますが、<dataType>でした。

# IS_NEGATIVE

<name>式は0以上である必要がありますが、<v>でした。

# IS_NULL

評価された<name>式はnullであってはなりません。

# IS_UNFOLDABLE

<name>式は定数値に評価される必要があります。

42K0E # INVALID_NON_DETERMINISTIC_EXPRESSIONS

演算子は決定性式を期待しますが、実際の式は<sqlExprs>です。

42K0E # INVALID_OBSERVED_METRICS

無効な観測メトリクス。

# AGGREGATE_EXPRESSION_WITH_DISTINCT_UNSUPPORTED

DISTINCTを持つ集計式は、観測メトリクスでは許可されていませんが、<expr>が見つかりました。

# AGGREGATE_EXPRESSION_WITH_FILTER_UNSUPPORTED

FILTER述語を持つ集計式は、観測メトリクスでは許可されていませんが、<expr>が見つかりました。

# MISSING_NAME

観測メトリクスには名前が必要です: <operator>

# NESTED_AGGREGATES_UNSUPPORTED

ネストされた集計は、観測メトリクスでは許可されていませんが、<expr>が見つかりました。

# NON_AGGREGATE_FUNC_ARG_IS_ATTRIBUTE

属性<expr>は、集計関数の引数としてのみ使用できます。

# NON_AGGREGATE_FUNC_ARG_IS_NON_DETERMINISTIC

非決定性式<expr>は、集計関数の引数としてのみ使用できます。

# WINDOW_EXPRESSIONS_UNSUPPORTED

ウィンドウ式は、観測メトリクスでは許可されていませんが、<expr>が見つかりました。

42K0E # INVALID_TIME_TRAVEL_SPEC

テーブルのタイムトラベル時にバージョンとタイムスタンプの両方を指定することはできません。

42K0E # INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

タイムトラベルタイムスタンプ式<expr>は無効です。

# INPUT

"TIMESTAMP"型にキャストできません。

# NON_DETERMINISTIC

決定性である必要があります。

# OPTION

オプションのタイムスタンプ文字列は、TIMESTAMP型にキャストできる必要があります。

# UNEVALUABLE

評価可能である必要があります。

42K0E # JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

結合条件<joinCondition>は無効な型<conditionType>であり、"BOOLEAN"が期待されていました。

42K0E # MULTIPLE_TIME_TRAVEL_SPEC

タイムトラベル句とオプションの両方でタイムトラベルを指定することはできません。

42K0E # MULTI_ALIAS_WITHOUT_GENERATOR

多部分エイリアス(<names>)は、<expr>がジェネレータ関数ではないためサポートされていません。

42K0E # MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

<expr>は、複数のソースをサポートしていません。

42K0E # NO_MERGE_ACTION_SPECIFIED

df.mergeIntoは、whenMatched/whenNotMatched/whenNotMatchedBySourceのいずれかでフォローされる必要があります。

42K0E # UNSUPPORTED_EXPR_FOR_OPERATOR

クエリ演算子には、サポートされていない式が1つ以上含まれています。WHERE句でのウィンドウ関数、集計関数、およびジェネレータ関数の使用を避けるように書き直すことを検討してください。無効な式: [<invalidExprSqls>]

42K0E # UNSUPPORTED_EXPR_FOR_PARAMETER

クエリパラメータには、サポートされていない式が含まれています。パラメータは変数またはリテラルである必要があります。無効な式: [<invalidExprSql>]

42K0E # UNSUPPORTED_GENERATOR

ジェネレータはサポートされていません。

# MULTI_GENERATOR

SELECT句ごとに1つのジェネレータのみが許可されますが、<num>個が見つかりました: <generators>

# NESTED_IN_EXPRESSIONS

<expression>にネストされています。

# NOT_GENERATOR

<functionName>はジェネレータであると期待されます。しかし、そのクラスは<classCanonicalName>であり、ジェネレータではありません。

# OUTSIDE_SELECT

SELECT句の外、<plan>が見つかりました。

42K0E # UNSUPPORTED_GROUPING_EXPRESSION

grouping()/grouping_id()は、GroupingSets/Cube/Rollupでのみ使用できます。

42K0E # UNSUPPORTED_MERGE_CONDITION

MERGE操作には、サポートされていない<condName>条件が含まれています。

# AGGREGATE

集計は許可されていません: <cond>

# NON_DETERMINISTIC

非決定性式は許可されていません: <cond>

# SUBQUERY

サブクエリは許可されていません: <cond>

42K0E # UNTYPED_SCALA_UDF

型指定のないScala UDFを使用しています。これは入力型の情報を持っていません。Sparkは、プリミティブ型引数を持つScalaクロージャにnullを無条件に渡す可能性があり、クロージャはnull引数のJava型のデフォルト値(例: udf((x: Int) => x, IntegerType)、結果はnull入力に対して0)を参照します。このエラーを回避するには、次のいずれかの方法を実行してください: 1. 型指定のあるScala UDF API(戻り値の型パラメータなし)を使用します。例: udf((x: Int) => x)。 2. Java UDF APIを使用します。例: udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)、入力型がすべて非プリミティブの場合。 3. "spark.sql.legacy.allowUntypedScalaUDF"を"true"に設定し、このAPIを注意して使用してください。

42K0E # WINDOW_FUNCTION_AND_FRAME_MISMATCH

<funcName>関数は、単一のオフセットを持つ順序付けられた行ベースのウィンドウフレームでのみ評価できます: <windowExpr>

42K0F # INVALID_TEMP_OBJ_REFERENCE

一時オブジェクト<tempObjName>の型<tempObj>への参照があるため、型<obj>の永続オブジェクト<objName>を作成できません。一時オブジェクト<tempObjName>を永続化するか、永続オブジェクト<objName>を一時化してください。

42K0G # PROTOBUF_DEPENDENCY_NOT_FOUND

依存関係<dependencyName>が見つかりませんでした。

42K0G # PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

パス<filePath>のProtobufディスクリプタファイルの読み取り中にエラーが発生しました。

42K0G # PROTOBUF_FIELD_MISSING

Protobufスキーマ<protobufSchema><field>を検索した結果、<matchSize>個の一致が見つかりました。候補: <matches>

42K0G # PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

Protobufスキーマで<field>が見つかりましたが、SQLスキーマには一致するものが見つかりませんでした。

42K0G # PROTOBUF_FIELD_TYPE_MISMATCH

フィールド<field>で型の不一致が発生しました。

42K0G # PROTOBUF_MESSAGE_NOT_FOUND

ディスクリプタでメッセージ<messageName>を特定できませんでした。

42K0G # PROTOBUF_TYPE_NOT_SUPPORT

Protobuf型はまだサポートされていません: <protobufType>

42K0G # RECURSIVE_PROTOBUF_SCHEMA

Protobufスキーマで再帰参照が見つかりました。これはデフォルトではSparkで処理できません: <fieldDescriptor>。オプションrecursive.fields.max.depthを1から10に設定してみてください。10レベル以上の再帰は許可されていません。

42K0G # UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQL型<toType>をProtobuf型<protobufType>に変換できませんでした。

42K0G # UNKNOWN_PROTOBUF_MESSAGE_TYPE

<descriptorName>をMessageとして扱おうとしましたが、<containingType>でした。

42K0H # RECURSIVE_VIEW

再帰ビュー<viewIdent>が検出されました(サイクル: <newPath>)。

42K0I # SQL_CONF_NOT_FOUND

SQL設定<sqlConf>が見つかりません。設定が存在するかどうか確認してください。

42K0K # INVALID_WITHIN_GROUP_EXPRESSION

WITHIN GROUPを持つ無効な関数<funcName>

# DISTINCT_UNSUPPORTED

この関数はDISTINCTとWITHIN GROUPの併用をサポートしていません。

# MISMATCH_WITH_DISTINCT_INPUT

DISTINCTとWITHIN GROUPで関数が呼び出されましたが、式<funcArg><orderingExpr>が一致しません。WITHIN GROUPの順序付け式は、関数の入力から選択される必要があります。

# WITHIN_GROUP_MISSING

この関数にはWITHIN GROUPが必要です。

# WRONG_NUM_ORDERINGS

この関数はWITHIN GROUPで<expectedNum>個の順序付けを必要としますが、<actualNum>個でした。

42K0L # END_LABEL_WITHOUT_BEGIN_LABEL

終了ラベル<endLabel>は、開始ラベルなしでは存在できません。

42K0L # INVALID_LABEL_USAGE

ラベル<labelName>の使用は無効です。

# DOES_NOT_EXIST

ラベルは<statementType>ステートメントで使用されましたが、そのラベルはどの周囲のブロックにも属していません。

# ITERATE_IN_COMPOUND

ITERATEステートメントは、複合(BEGIN...END)本体に属するラベルとは一緒に使用できません。

# QUALIFIED_LABEL_NAME

ラベルは修飾できません。

42K0L # LABELS_MISMATCH

開始ラベル<beginLabel>と終了ラベル<endLabel>が一致しません。

42K0L # LABEL_ALREADY_EXISTS

ラベル<label>は既に存在します。別の名前を選択するか、既存のラベルの名前を変更してください。

42K0L # LABEL_NAME_FORBIDDEN

ラベル名<label>は禁止されています。

42K0M # INVALID_VARIABLE_DECLARATION

無効な変数宣言。

# NOT_ALLOWED_IN_SCOPE

変数<varName>の宣言はこのスコープでは許可されていません。

# ONLY_AT_BEGINNING

変数<varName>は、複合体の先頭でのみ宣言できます。

# QUALIFIED_LOCAL_VARIABLE

変数<varName>は、修飾子なしで宣言する必要があります。ローカル変数宣言には修飾子は許可されていません。

# REPLACE_LOCAL_VARIABLE

変数<varName>はDECLARE OR REPLACEをサポートしていません。ローカル変数は置き換えることができません。

42K0N # INVALID_EXTERNAL_TYPE

外部型<externalType>は、式<expr>の型<type>に対して無効です。

42K0O # SCALAR_FUNCTION_NOT_COMPATIBLE

ScalarFunction<scalarFunc>は、カスタム実装でメソッド'produceResult(InternalRow)'をオーバーライドしていません。

42K0P # SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

ScalarFunction<scalarFunc>は、メソッド'produceResult(InternalRow)'を実装またはオーバーライドしていません。

42K0Q # INVALID_HANDLER_DECLARATION

無効なハンドラ宣言。

# CONDITION_NOT_FOUND

条件<condition>が見つかりません。

# DUPLICATE_CONDITION_IN_HANDLER_DECLARATION

ハンドラ宣言に重複する条件<condition>が見つかりました。いずれかを削除してください。

# DUPLICATE_SQLSTATE_IN_HANDLER_DECLARATION

ハンドラ宣言に重複するsqlState<sqlState>が見つかりました。いずれかを削除してください。

# INVALID_CONDITION_COMBINATION

ハンドラ宣言での条件の組み合わせが無効です。SQLEXCEPTIONとNOT FOUNDは、他の条件/sqlstate値と同時に使用できません。

# WRONG_PLACE_OF_DECLARATION

ハンドラは、変数/条件宣言の後に、他のステートメントの前に宣言する必要があります。

42K0R # INVALID_ERROR_CONDITION_DECLARATION

無効な条件宣言。

# NOT_AT_START_OF_COMPOUND_STATEMENT

条件<conditionName>は、BEGIN END複合ステートメントの開始時にのみ宣言できます。

# QUALIFIED_CONDITION_NAME

条件<conditionName>は修飾できません。

# SPECIAL_CHARACTER_FOUND

条件名<conditionName>に特殊文字が見つかりました。英数字とアンダースコアのみが許可されます。

42KD0 # AMBIGUOUS_ALIAS_IN_NESTED_CTE

名前<name>はネストされたCTEで曖昧です。名前が内部CTEで定義されるように、<config>を"CORRECTED"に設定してください。それを"LEGACY"に設定すると、外部CTE定義が優先されます。'<docroot>/sql-migration-guide.html#query-engine'を参照してください。

42KD9 # CANNOT_MERGE_SCHEMAS

スキーマのマージに失敗しました: 初期スキーマ: <left> 初期スキーマとマージできないスキーマ: <right>

42KD9 # UNABLE_TO_INFER_SCHEMA

<format>のスキーマを推論できませんでした。手動で指定する必要があります。

42KDE # CALL_ON_STREAMING_DATASET_UNSUPPORTED

メソッド<methodName>はストリーミングDataset/DataFrameでは呼び出せません。

42KDE # CANNOT_CREATE_DATA_SOURCE_TABLE

データソーステーブル<tableName>の作成に失敗しました。

# EXTERNAL_METADATA_UNSUPPORTED

プロバイダー'<provider>'は外部メタデータをサポートしていませんが、スキーマが提供されています。テーブル作成時にスキーマを削除してください。

42KDE # INVALID_WRITER_COMMIT_MESSAGE

データソースライターが無効な数のコミットメッセージを生成しました。各タスクから1つのライターコミットメッセージが期待されていましたが、<detail>を受信しました。

42KDE # NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

ストリーミングDataFrame/Dataset上の<windowFunc>(列<columnName>として)でのウィンドウ関数はサポートされていません。Structured Streamingは、WINDOW関数を使用した時間ウィンドウ集計のみをサポートしています。(ウィンドウ仕様: <windowSpec>

42KDE # STREAMING_OUTPUT_MODE

無効なストリーミング出力モード: <outputMode>

# INVALID

受け入れられる出力モードは「Append」、「Complete」、「Update」です。

# UNSUPPORTED_DATASOURCE

この出力モードは、データソース<className>ではサポートされていません。

# UNSUPPORTED_OPERATION

この出力モードは、ストリーミングDataFrame/Datasetでの<operation>ではサポートされていません。

42KDF # XML_ROW_TAG_MISSING

XML形式のファイルを読み書きするには、<rowTag>オプションが必要です。

42P01 # TABLE_OR_VIEW_NOT_FOUND

テーブルまたはビュー<relationName>が見つかりません。スペルとスキーマおよびカタログの正確性を確認してください。スキーマで名前を修飾しなかった場合は、current_schema()の出力を確認するか、正しいスキーマとカタログで名前を修飾してください。ドロップ時のエラーを許容するには、DROP VIEW IF EXISTSまたはDROP TABLE IF EXISTSを使用してください。

42P01 # VIEW_NOT_FOUND

ビュー<relationName>が見つかりません。スペルとスキーマおよびカタログの正確性を確認してください。スキーマで名前を修飾しなかった場合は、current_schema()の出力を確認するか、正しいスキーマとカタログで名前を修飾してください。ドロップ時のエラーを許容するには、DROP VIEW IF EXISTSを使用してください。

42P02 # UNBOUND_SQL_PARAMETER

バインドされていないパラメータ<name>が見つかりました。argsを修正し、パラメータをSQLリテラルまたはmap()、array()、struct()などのコレクションコンストラクタ関数にマッピングしてください。

42P06 # SCHEMA_ALREADY_EXISTS

スキーマ<schemaName>は既に存在するため作成できません。別の名前を選択するか、既存のスキーマをドロップするか、IF NOT EXISTS句を追加して既存のスキーマを許容してください。

42P07 # TABLE_OR_VIEW_ALREADY_EXISTS

テーブルまたはビュー<relationName>は既に存在するため作成できません。別の名前を選択するか、既存のオブジェクトをドロップまたは置換するか、IF NOT EXISTS句を追加して既存のオブジェクトを許容してください。

42P07 # TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

一時ビュー<relationName>は既に存在するため作成できません。別の名前を選択するか、既存のビューをドロップまたは置換するか、IF NOT EXISTS句を追加して既存のビューを許容してください。

42P07 # VIEW_ALREADY_EXISTS

ビュー<relationName>は既に存在するため作成できません。別の名前を選択するか、既存のオブジェクトをドロップまたは置換するか、IF NOT EXISTS句を追加して既存のオブジェクトを許容してください。

42P08 # CATALOG_NOT_FOUND

カタログ<catalogName>が見つかりません。SQL設定<config>をカタログプラグインに設定することを検討してください。

42P10 # CLUSTERING_COLUMNS_MISMATCH

指定されたクラスタリングは、既存のテーブル<tableName>のクラスタリングと一致しません。指定されたクラスタリング列: [<specifiedClusteringString>]。既存のクラスタリング列: [<existingClusteringString>]。

42P20 # MISSING_WINDOW_SPECIFICATION

<windowName>のWINDOW句でウィンドウ仕様が定義されていません。WINDOW句の詳細については、'<docroot>/sql-ref-syntax-qry-select-window.html'を参照してください。

42P20 # UNSUPPORTED_EXPR_FOR_WINDOW

<sqlExpr>はウィンドウ関数内ではサポートされていません。

42P21 # COLLATION_MISMATCH

文字列関数と演算子の照合順序を決定できませんでした。

# EXPLICIT

明示的な照合順序の不一致によりエラーが発生しました: [<explicitTypes>]。単一の明示的な照合順序を決定し、他を削除してください。

# IMPLICIT

暗黙的な照合順序の不一致によりエラーが発生しました: [<implicitTypes>]。COLLATE関数を使用して明示的に照合順序を設定してください。

42P22 # INDETERMINATE_COLLATION

文字列演算の照合順序を決定できませんでした。COLLATE句を使用して明示的に照合順序を設定してください。

42P22 # INDETERMINATE_COLLATION_IN_EXPRESSION

<expr>のデータ型には、決定不能な照合順序があります。COLLATE句を使用して明示的に照合順序を設定してください。

42P22 # INDETERMINATE_COLLATION_IN_SCHEMA

スキーマに決定不能な照合順序が含まれています: [<columnPaths>]。COLLATE句を使用して明示的に照合順序を設定してください。

42S22 # NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

Protobufスキーマで<catalystFieldPath>が見つかりませんでした。

42S23 # PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

<expression>は'partitionedBy'内にある必要があります。

46103 # CANNOT_LOAD_FUNCTION_CLASS

関数<functionName>を登録する際にクラス<className>をロードできませんでした。クラスパス上にあることを確認してください。

46110 # CANNOT_MODIFY_CONFIG

Spark設定<key>の値を変更できません。'<docroot>/sql-migration-guide.html#ddl-statements'も参照してください。

46121 # INVALID_COLUMN_NAME_AS_PATH

データソース<datasource>は、列<columnName>の名前がファイルパスで許可されていない文字を含んでいるため、保存できません。エイリアスを使用して名前を変更してください。

46121 # INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME

<fieldName>は有効なJava識別子ではなく、フィールド名<walkedTypePath>として使用できません。

51024 # INCOMPATIBLE_VIEW_SCHEMA_CHANGE

ビュー<viewName>のSQLクエリは互換性のないスキーマ変更があり、列<colName>を解決できません。<expectedNum>個の列<colName>が期待されましたが、<actualCols>個でした。次のコマンドを実行してビューを再作成してください: <suggestion>

53200 # UNABLE_TO_ACQUIRE_MEMORY

<requestedBytes>バイトのメモリを取得できませんでした。<receivedBytes>バイトしか取得できませんでした。

54000 # COLLECTION_SIZE_LIMIT_EXCEEDED

配列サイズ制限<maxRoundedArrayLength>を超える<numberOfElements>個の要素を持つ配列を作成できません。

# FUNCTION

関数<functionName>で配列を作成しようとしましたが、成功しませんでした。

# INITIALIZE

指定されたパラメータで配列を初期化できません。

# PARAMETER

関数<functionName>のパラメータ<parameter>の値が無効です。

54000 # GROUPING_SIZE_LIMIT_EXCEEDED

グルーピングセットのサイズは<maxSize>を超えることはできません。

54001 # 解析に失敗しました: 複雑すぎます

SQL関数や参照されるビューを含め、ステートメントが複雑すぎて解析できませんでした。このエラーを軽減するには、ステートメントを複数の、より単純なチャンクに分割してください。

54006 # 制限長を超過しました

char/varchar型長の制限を超えています: <limit>

54006 # Kryoバッファオーバーフロー

Kryoシリアライゼーションに失敗しました: <exceptionMsg>。これを回避するには、「<bufferSizeConfKey>」の値を増やしてください。

54006 # TRANSPOSEが行数制限を超過しました

TRANSPOSEで許可される行数制限<maxValues>を超えました。意図したものであれば、<config> を現在の行数以上に設定してください。

54011 # タプルのサイズが制限を超過しました

Scalaのタプルサポートの制限により、22個以上の要素を持つタプルはサポートされていません。

54023 # テーブル値関数にテーブル引数が多すぎます

テーブル値関数にテーブル引数が多すぎます。テーブル引数は1つまで許可されていますが、<num>個受け取りました。許可したい場合は、「spark.sql.allowMultipleTableArguments.enabled」を「true」に設定してください。

54K00 # ビューのネスト深度が最大深度を超過しました

ビュー<viewName>の深度が、最大ビュー解決深度(<maxNestedDepth>)を超えています。エラーを回避するために解析を中止しました。この問題を回避するには、「spark.sql.view.maxNestedViewDepth」の値を増やしてみてください。

56000 # チェックポイントRDDブロックIDが見つかりません

チェックポイントブロック<rddBlockId>が見つかりません!元のパーティションをチェックポイントしたエグゼキュータが生存していないか、元のRDDが失われています。この問題が続く場合は、ローカルチェックポイントよりも遅いが、より耐障害性の高いrdd.checkpoint()の使用を検討してください。

56038 # コーデックが利用できません

コーデック<codecName>は利用できません。

# 利用可能なコーデックの提案あり

利用可能なコーデックは<availableCodecs>です。

# 設定の提案あり

設定<configKey><configVal>に設定することを検討してください。

56038 # 機能が有効になっていません

機能<featureName>は有効になっていません。この機能を利用可能にするには、設定<configKey><configValue>に設定することを検討してください。

56038 # GET_TABLES_BY_TYPEはHiveバージョンでサポートされていません

Hive 2.2以前のバージョンではgetTablesByTypeはサポートされていません。Hive 2.3以降のバージョンを使用してください。

56038 # 非互換なDataSourceRegister

非互換なDataSourceRegisterを検出しました。非互換なライブラリをクラスパスから削除するか、アップグレードしてください。エラー: <message>

56K00 # Spark Connect

汎用Spark Connectエラー。

# インターセプターコンストラクタが見つかりません

<cls>に引数なしのデフォルトコンストラクタがないため、GRPCインターセプターをインスタンス化できません。

# インターセプター実行時エラー

GRPCインターセプターのインスタンス化中にエラーが発生しました: <msg>

# プラグインコンストラクタが見つかりません

<cls>に引数なしのデフォルトコンストラクタがないため、Spark Connectプラグインをインスタンス化できません。

# プラグイン実行時エラー

Spark Connectプラグインのインスタンス化中にエラーが発生しました: <msg>

# セッションが同じではありません

両方のDatasetは同じSparkSessionに属している必要があります。

58030 # ステートストアをロードできません

状態のロード中にエラーが発生しました。

# ベーススナップショットチェックポイントが見つかりません

ラインエージ<lineage>を持つベーススナップショットチェックポイントが見つかりません。

# チェックポイントを読み取れません

RocksDBチェックポイントメタデータを読み取れません。<expectedVersion>を期待していましたが、<actualVersion>が見つかりました。

# デルタファイルのキーサイズを読み取れません

<clazz>のデルタファイル<fileToRead>の読み取り中にエラーが発生しました。キーサイズは<keySize>にすることはできません。

# デルタファイルが存在しないため読み取れません

<clazz>のデルタファイル<fileToRead>の読み取り中にエラーが発生しました。<fileToRead>が存在しません。

# スナップショットファイルが存在しないため読み取れません

<clazz>のスナップショットファイル<fileToRead>の読み取り中にエラーが発生しました。<fileToRead>が存在しません。

# スナップショットファイルのキーサイズを読み取れません

<clazz>のスナップショットファイル<fileToRead>の読み取り中にエラーが発生しました。キーサイズは<keySize>にすることはできません。

# スナップショットファイルのバリューサイズを読み取れません

<clazz>のスナップショットファイル<fileToRead>の読み取り中にエラーが発生しました。バリューサイズは<valueSize>にすることはできません。

# ストリーミング状態ファイルを読み取れません

<fileToRead>のストリーミング状態ファイルの読み取り中にエラーが発生しました。ファイルが存在しません。ストリームジョブが新しいまたは更新された状態操作で再起動された場合は、新しいチェックポイントの場所を作成するか、既存のチェックポイントの場所をクリアしてください。

# HDFSステートストアプロバイダーメモリ不足

メモリ不足のため、ID<stateStoreId>のHDFSステートストアをロードできませんでした。

# 無効な変更ログリーダーバージョン

変更ログリーダーバージョンは<version>にできません。チェックポイントは将来のSparkバージョンからのものである可能性があります。Sparkをアップグレードしてください。

# 無効な変更ログライターバージョン

変更ログライターバージョンは<version>にできません。

# RocksDBステートストアプロバイダーメモリ不足

メモリ不足のため、ID<stateStoreId>のRocksDBステートストアをロードできませんでした。

# スナップショットパーティションIDが見つかりません

<checkpointLocation>のオペレータ<operatorId>の状態のパーティションID<snapshotPartitionId>が見つかりません。

# 未分類
# 予期しないファイルサイズ

<dfsFile><localFile>にコピーしました。期待されるサイズは<expectedSize>バイトでしたが、<localFileSize>バイトでした。

# 予期しないバージョン

バージョンは0未満であるため、<version>にすることはできません。

# 未解放スレッドエラー

<loggingId>: <acquiredThreadInfo>によって<timeWaitedMs> ms待機しても解放されなかったため、<newAcquiredThreadInfo>はoperationType=<operationType>の操作のためにRocksDBインスタンスを取得できませんでした。ロックを保持しているスレッドのトレース: <stackTraceOutput>

58030 # パスへの権限の復元に失敗しました

作成されたパス<path>の権限を<permission>に戻すことに失敗しました。

58030 # ステートストアに書き込めません

プロバイダー<providerClass>のステートストアファイルの書き込み中にエラーが発生しました。

# コミットできません

状態チェックポイント中にコミットを実行できません。

58030 # 一時ファイルの名前変更に失敗しました

FileSystem.renameがfalseを返したため、一時ファイル<srcPath><dstPath>に名前変更できませんでした。

58030 # 無効なバケットファイル

無効なバケットファイル: <path>

58030 # タスク書き込み失敗

<path>に行を書き込む際にタスクが失敗しました。

58030 # Hiveテーブルの取得に失敗しました

Hiveデータベース<dbName>のテーブルの取得に失敗しました。

F0000 # 無効なドライバーメモリ

システムメモリ<systemMemory>は少なくとも<minSystemMemory>である必要があります。--driver-memoryオプションまたはSpark設定の「<config>」を使用してヒープサイズを増やしてください。

F0000 # 無効なエグゼキュータメモリ

エグゼキュータメモリ<executorMemory>は少なくとも<minSystemMemory>である必要があります。--executor-memoryオプションまたはSpark設定の「<config>」を使用してエグゼキュータメモリを増やしてください。

F0000 # 無効なKryoシリアライザーバッファサイズ

設定「<bufferSizeConfKey>」の値は2048 MiB未満である必要がありますが、<bufferSizeConfValue> MiBでした。

HV000 # JDBC失敗

JDBC <url>での操作に失敗しました

# テーブル変更

テーブル<tableName>を変更します。

# インデックス作成

テーブル<tableName>にインデックス<indexName>を作成します。

# 名前空間作成

名前空間<namespace>を作成します。

# 名前空間コメント作成

名前空間<namespace>にコメントを作成します。

# テーブル作成

テーブル<tableName>を作成します。

# インデックス削除

テーブル<tableName>からインデックス<indexName>を削除します。

# 名前空間削除

名前空間 <namespace> を削除します。

# テーブル取得

名前空間<namespace>からテーブルを取得します。

# 名前空間一覧

名前空間を一覧表示します。

# テーブルロード

テーブル<tableName>をロードします。

# 名前空間存在確認

名前空間<namespace>が存在することを確認します。

# 名前空間コメント削除

名前空間<namespace>のコメントを削除します。

# テーブル名変更

テーブル<oldName><newName>に変更します。

# テーブル存在確認

テーブル<tableName>が存在することを確認します。

# 未分類

<message>

HV091 # リストに存在しないフィールド名

フィールド<nonExistFields>が存在しません。利用可能なフィールド: <fieldNames>

HY000 # 無効なハンドル

ハンドル<handle>は無効です。

# フォーマット

ハンドルは、'00112233-4455-6677-8899-aabbccddeeff'形式のUUID文字列である必要があります。

# 操作が放棄されました

操作は非アクティブと見なされ、中止されました。

# 操作が既に存在します

操作は既に存在します。

# 操作が見つかりません

操作が見つかりません。

# セッションが変更されました

既存のSparkサーバードライバーインスタンスが再起動しました。再接続してください。

# セッションが閉じられました

セッションは閉じられました。

# セッションが見つかりません

セッションが見つかりません。

HY000 # タイムアウト設定がありません

操作はタイムアウトしましたが、タイムアウト期間は設定されていません。処理時間ベースのタイムアウトを設定するには、「mapGroupsWithState」または「flatMapGroupsWithState」操作で「GroupState.setTimeoutDuration()」を使用してください。イベント時間ベースのタイムアウトを設定するには、「GroupState.setTimeoutTimestamp()」を使用し、「Dataset.withWatermark()」でウォーターマークを定義してください。

HY008 # 操作がキャンセルされました

操作はキャンセルされました。

HY109 # 無効なカーソル

カーソルは無効です。

# 切断されました

カーソルはサーバーによって切断されました。

# 再接続不可

カーソルは再接続できません。

# 位置が利用できません

カーソル位置ID<responseId>は、インデックス<index>で利用できなくなりました。

# 位置が見つかりません

カーソル位置ID<responseId>が見つかりません。

KD000 # Kryoへのクラス登録に失敗しました

Kryoへのクラス登録に失敗しました。

KD000 # Graphiteシンクのプロトコルが無効です

無効なGraphiteプロトコル: <protocol>

KD000 # Graphiteシンクのプロパティが見つかりません

Graphiteシンクには「<property>」プロパティが必要です。

KD000 # テーブルに互換性のないデータ

テーブル<tableName>に互換性のないデータを書き込むことはできません。

# 列名が曖昧です

入力データ<colName>の列名が曖昧です。

# データが見つかりません

出力列<colName>のデータが見つかりません。

# 安全にキャストできません

<colName> <srcType><targetType>に安全にキャストできません。

# 余分な列

余分な列<extraColumns>を書き込むことはできません。

# 余分な構造体フィールド

構造体<colName>に余分なフィールド<extraFields>を書き込むことはできません。

# 配列要素がnull許容です

null許容でない配列にnull許容要素を書き込むことはできません: <colName>

# null許容列

null許容でない列<colName>にnull許容値を書き込むことはできません。

# マップの値がnull許容です

null許容でないマップにnull許容値を書き込むことはできません: <colName>

# 構造体にフィールドがありません

構造体<colName>にフィールドがありません: <missingFields>

# 予期しない列名

構造体<colName><order>番目のフィールド名が一致しません(順序が異なる可能性があります)。期待値: <expected>、検出値: <found>

KD000 # CSVレコードが不正な形式です

CSVレコードが不正な形式です: <badRecord>

KD001 # ファイル読み取り失敗

ファイル<path>の読み取り中にエラーが発生しました。

# ファイルが存在しません

ファイルが存在しません。基盤となるファイルが更新された可能性があります。SQLで「REFRESH TABLE tableName」コマンドを実行するか、関連するDataset/DataFrameを再作成することで、Sparkのキャッシュを明示的に無効にすることができます。

# ヒントがありません
# Parquet列のデータ型が一致しません

Parquet列<column>の読み取り中にデータ型が一致しません。期待されるSpark型は<expectedType>ですが、実際のParquet型は<actualType>です。

# サポートされていないファイルシステム

ファイルシステム<fileSystemClass><method>を実装していません。

KD002 # 無効なログバージョン

UnsupportedLogVersion。

# 完全一致バージョン

サポートされているログバージョンはv<matchVersion>のみですが、v<version>に遭遇しました。

# 最大サポートバージョン

最大サポートログバージョンはv<maxSupportedVersion>ですが、v<version>に遭遇しました。ログファイルは新しいSparkバージョンによって生成されたものであり、このバージョンでは読み取れません。アップグレードが必要です。

KD002 # ログファイルが不正な形式です

ログファイルが不正な形式でした: <text>から正しいログバージョンを読み取れませんでした。

KD005 # すべてのパーティション列は許可されていません

すべての列をパーティション列として使用することはできません。

KD006 # STDSコミット済みバッチが利用できません

コミット済みのバッチが見つかりません。チェックポイントの場所: <checkpointLocation>。クエリが実行され、マイクロバッチがコミットされたことを確認してから停止してください。

KD006 # ステートストアでパーティションが検出されませんでした

状態にパーティションがありません。クエリが有効な状態を指しているか確認してください。オプション: <sourceOptions>

KD006 # STDSオフセットログが利用できません

<batchId>のオフセットログが存在しません。チェックポイントの場所: <checkpointLocation>。クエリ可能なバッチIDを指定してください。状態メタデータデータソースを使用して、利用可能なバッチIDをクエリできます。

KD006 # STDSオフセットメタデータログが利用できません

<batchId>のオフセットログのメタデータが利用できません。チェックポイントの場所: <checkpointLocation>。チェックポイントは古いSparkバージョンでのみ実行されたようです。最新のSparkバージョンでストリームクエリを実行して、Sparkが状態メタデータを構築するようにしてください。

KD009 # ディレクトリ構造の競合

ディレクトリ構造の競合が検出されました。疑わしいパス: <discoveredBasePaths> 指定されたパスがパーティションディレクトリの場合、データソースのオプションで「basePath」を設定してテーブルのルートディレクトリを指定してください。複数のルートディレクトリがある場合は、それぞれを個別にロードしてから結合してください。

KD009 # パーティション列名の競合

パーティション列名の競合が検出されました: <distinctPartColLists> パーティション化されたテーブルディレクトリでは、データファイルはリーフディレクトリにのみ存在する必要があります。また、同じレベルのディレクトリは同じパーティション列名を持つ必要があります。予期しないファイルまたは一貫性のないパーティション列名について、次のディレクトリを確認してください: <suspiciousPaths>

KD00B # Avroの読み取りエラー: 不明なフィンガープリント

Avroデータの読み取り中にエラーが発生しました。不明なフィンガープリント: <fingerprint>。どのスキーマを使用すればよいかわかりません。Sparkコンテキストの開始後に、追加のスキーマを登録した場合に発生する可能性があります。

KD010 # データソース外部エラー

外部データソースへの保存中にエラーが発生しました。

P0001 # ユーザーが例外を発生させました

<errorMessage>

P0001 # ユーザーが例外を発生させました: パラメータの不一致

raise_error()関数は、パラメータ: <expectedParms>を期待するエラークラス: <errorClass>を発生させるために使用されました。提供されたパラメータ<providedParms>は、期待されるパラメータと一致しません。すべての期待されるパラメータを提供してください。

P0001 # ユーザーが例外を発生させました: 不明なエラークラス

raise_error()関数は、不明なエラークラス<errorClass>を発生させるために使用されました。

XX000 # 曖昧なリゾルバー拡張

単一パスアナライザーは、<operator>の拡張選択が曖昧であるため、このクエリまたはコマンドを処理できません: <extensions>

XX000 # Spark Connect ML

汎用Spark Connect MLエラー。

# 属性は許可されていません

<className>内の<attribute>へのアクセスは許可されていません。

# キャッシュが無効です

MLキャッシュから<objectName>を取得できません。エントリが削除されたためである可能性があります。

# サポートされていない例外

<message>

XX000 # ハイブリッドアナライザー例外

レガシー固定点アナライザーと単一パスリゾルバーの両方でクエリまたはコマンドを解決しようとした際にエラーが発生しました。

# 固定点解析は失敗しましたが、単一パス解析は成功しました

固定点解析は失敗しましたが、単一パス解析は成功しました。単一パスアナライザーの出力: <singlePassOutput>

# 論理プラン比較の不一致

固定点アナライザーと単一パスアナライザーの出力が一致しません。固定点アナライザーの出力: <fixedPointOutput> 単一パスアナライザーの出力: <singlePassOutput>

# 出力スキーマ比較の不一致

固定点アナライザーと単一パスアナライザーの出力スキーマが一致しません。固定点アナライザーの出力スキーマ: <fixedPointOutputSchema> 単一パスアナライザーの出力スキーマ: <singlePassOutputSchema>

XX000 # 不正な形式のProtobufメッセージ

メッセージのデシリアライゼーション中に不正な形式のProtobufメッセージが検出されました。パースモード: <failFastMode>。不正な形式のProtobufメッセージをnull結果として処理するには、「mode」オプションを「PERMISSIVE」に設定してみてください。

XX000 # 属性が見つかりません

オペレータ<operator><input>から、解決された属性<missingAttributes>が見つかりません。

# 解決された属性が操作に現れます

同じ名前の属性が操作<operation>に現れます。正しい属性が使用されているか確認してください。

# 解決された属性が入力から見つかりません
XX000 # ステートストアキー行フォーマット検証失敗

ストリームクエリは、キー行の書き込まれた状態の検証に失敗しました。以下の理由が原因である可能性があります。1.古いSparkバージョンが、現在のバージョンと互換性のないチェックポイントを書き込んだ。2.チェックポイントファイルが破損している。3.再起動間でクエリが非互換な方法で変更された。最初のケースでは、新しいチェックポイントディレクトリを使用するか、元のSparkバージョンを使用してストリーミング状態を処理してください。取得されたerror_message=<errorMsg>

XX000 # ステートストアバリュー行フォーマット検証失敗

ストリームクエリは、バリュー行の書き込まれた状態の検証に失敗しました。以下の理由が原因である可能性があります。1.古いSparkバージョンが、現在のバージョンと互換性のないチェックポイントを書き込んだ。2.チェックポイントファイルが破損している。3.再起動間でクエリが非互換な方法で変更された。最初のケースでは、新しいチェックポイントディレクトリを使用するか、元のSparkバージョンを使用してストリーミング状態を処理してください。取得されたerror_message=<errorMsg>

XXKD0 # 無効なSQL関数プラン構造

無効なSQL関数プラン構造<plan>

XXKD0 # プラン検証失敗: ルールエグゼキュータ

<ruleExecutor>の入力プランが無効です: <reason>

XXKD0 # プラン検証失敗: バッチ内のルール

バッチ<batch>のルール<rule>が無効なプランを生成しました: <reason>

XXKDA # Sparkジョブがキャンセルされました

ジョブ<jobId>がキャンセルされました <reason>

XXKST # ステートストア: バリューのスキーマ進化が無効

スキーマ進化は不可能です。新しいvalue_schema=<newValueSchema>と古いvalue_schema=<oldValueSchema>。有効なスキーマ進化については、https://avro.apache.org/docs/1.11.1/specification/_print/#schema-resolution を確認してください。

XXKST # ステートストア: キーのスキーマが互換性がありません

提供されたキーのスキーマが既存の状態キーのスキーマと一致しません。フィールドの数と型を確認してください。既存のkey_schema=<storedKeySchema>と新しいkey_schema=<newKeySchema>。スキーマ検証なしでクエリを強制実行したい場合は、spark.sql.streaming.stateStore.stateSchemaCheckをfalseに設定してください。ただし、互換性のないスキーマでクエリを実行すると、非決定的な動作を引き起こす可能性があることに注意してください。

XXKST # ステートストア: 操作の順序が不正

ストリーミング状態フルオペレータが、状態ストアに不正な順序でアクセスしようとしました。これはバグです。再試行してください。error_msg=<errorMsg>

XXKST # ステートストア: サポートされていない操作

<operationType>操作は<entity>ではサポートされていません。

XXKST # ステートストア: バイナリ不等号演算はサポートされていません

ステートストアでは、バイナリ不等号列はサポートされていません。提供されたスキーマ: <schema>

XXKST # ステートストア: バリューのスキーマが互換性がありません

提供されたバリューのスキーマが既存の状態バリューのスキーマと一致しません。フィールドの数と型を確認してください。既存のvalue_schema=<storedValueSchema>と新しいvalue_schema=<newValueSchema>。スキーマ検証なしでクエリを強制実行したい場合は、spark.sql.streaming.stateStore.stateSchemaCheckをfalseに設定してください。ただし、互換性のないスキーマでクエリを実行すると、非決定的な動作を引き起こす可能性があることに注意してください。

XXKST # STDS内部エラー

内部エラー: <message>。このバグを該当するコミュニティまたはベンダーに報告し、完全なスタックトレースを提供してください。

XXKST # ストリーミングPythonランナー初期化失敗

ストリーミングランナーの初期化に失敗しました。返り値: <resFromPython>。原因: <msg>

XXKST # ストリーム失敗

クエリ[id = <id>, runId = <runId>]は例外で終了しました: <message>

XXKST # TransformWithStateのスキーマはnull許容でなければなりません

Avroエンコーディングが有効な場合、TransformWithStateオペレータを使用する際には、列ファミリー<columnFamilyName>のスキーマのすべてのフィールドがnull許容である必要があります。スキーマをnull許容にしてください。現在のスキーマ: <schema>

XXKUC # INSUFFICIENT_TABLE_PROPERTY

テーブルプロパティが見つかりません

# MISSING_KEY

<key>.

# MISSING_KEY_PART

<key>, <totalAmountOfParts> 個のパーツが必要です。