PySpark のテスト#

PySpark のテストを実行するには、まず Maven または SBT を介して Spark 自体をビルドする必要があります。たとえば、

build/mvn -DskipTests clean package
build/sbt -Phive clean package

その後、`python/run-tests` を使用して PySpark のテストケースを実行できます。たとえば、

python/run-tests --python-executable=python3

Mac OS でテストを実行している場合は、`OBJC_DISABLE_INITIALIZE_FORK_SAFETY` 環境変数を `YES` に設定する必要がある場合があります。

Spark のビルドモジュールのテスト、または個々のテストの実行 に関するガイダンスを参照してください。

個別の PySpark テストの実行#

以下のように、`python/run-tests` を使用して特定のテストを実行できます。

python/run-tests --testnames pyspark.sql.tests.test_arrow

詳細については、PySpark のテスト を参照してください。

GitHub Actions を使用したテストの実行#

数回のクリックで、フォークした GitHub リポジトリで GitHub Actions を使用して、完全な PySpark テストを実行できます。詳細については、GitHub Actions を使用してフォークしたリポジトリでテストを実行する を参照してください。

Spark Connect のテストの実行#

Python クライアントのテストの実行#

Protobuf 定義の変更をテストするには、たとえば `spark/sql/connect/common/src/main/protobuf/spark/connect` で、まず `dev/connect-gen-protos.sh` を実行して Python Protobuf クライアントを再生成する必要があります。

Python クライアントを使用した PySpark シェルの実行#

以下のコマンドは、Spark Connect サーバーをローカルで自動的に起動し、サーバーに接続された Spark Connect クライアントを作成します。

bin/pyspark --remote "local[*]"