Data Prep用のHortonworks HDP2 Hiveコネクター¶
ユーザーペルソナ:Data Prep管理者、データソース管理者、またはIT/DevOps
本機能の提供について
このコネクターは、Data Prep SaaSのお客様はご利用いただけません。
備考
この文書は、コネクターの設定中に利用できるすべての構成フィールドについて論じています。 一部のフィールドは、設定の以前の手順で管理者によってすでに入力されている場合があり、表示されない場合があります。 Data Prepのコネクターフレームワークの詳細については、Data Prepコネクターのセットアップを参照してください。 また、管理者がこのコネクタにデータソースのリストで別の名前を付けている可能性があります。
Data Prepの設定¶
このコネクターを使用すると、Hortonworks HDP 2.6.5 Hiveに接続して、インポートとエクスポートを行うことができます。次のフィールドを使用して、接続パラメーターを定義します。
備考
このコネクターを設定するには、Data Prepサーバー上のファイルシステムへのアクセスと、Hadoopクラスター設定のcore-site.xmlが必要です。この手順については、カスタマーサクセス担当者にお問い合わせください。
一般¶
- 名前:UIでユーザーに表示されるデータソースの名前。
- 説明:UIでユーザーに表示されるデータソースの説明。
ヒント
Data Prepは複数のHiveディレクトリに接続できます。わかりやすい名前を使用すると、ユーザーが適切なデータソースを識別する上で非常に役立ちます。
Hadoop クラスター¶
- HDFS ユーザー: HDFS クラスター上のユーザー名。 ファイルを出力して Hive にエクスポートするために使用されます。
Kerberos認証の構成¶
Kerberos認証には、以下のパラメータも設定する必要があります。
- プリンシパル: Kerberos認証のプリンシパルです。
- レルム: Kerberos認証のレルムです。
- KDC ホスト名:Kerberos認証のキー配布センターのホスト名です。
- Kerberos認証の構成ファイル: Web サーバー上のKerberos認証の構成ファイルの完全修飾パスです。
- キータブ ファイル:Web サーバー上のKerberos認証のキータブ ファイルの完全修飾パスです。
[プロキシユーザー]および[アプリケーションユーザーを使用]オプションを使用すると、インパーソネーションアカウントを指定できます。HDFSでのインパーソネーションの詳細については、このドキュメントを参照してください。ここには3つのオプションがあります:特定のプロキシユーザー、修飾子を持つプロキシユーザー、または個々のアプリケーションユーザーを使用します。
- プロキシユーザ-:ここで、すべての接続でインパーソネーションされたユーザーアカウントを指定するか、[アプリケーションユーザーの使用]ボックスをオンにして、コネクターを実行する個々のData Prepユーザーのユーザーアカウントをインパーソネーションすることができます。[アプリケーションユーザーの使用]がチェックされている場合、[プロキシユーザー]フィールドは有効になっていないことに注意してください。プロキシユーザーに${user.name}を入力することは、[アプリケーションユーザーの使用]を選択した場合と同様に機能しますが、修飾子や追加のテキストを追加できるため、より柔軟になります。例:
- ユーザーの認証情報にドメインを追加するには、[プロキシユーザー]フィールドに\domain_name${user.name}と入力します。Data Prepではユーザー名とドメインが渡されます。
- 例:\Accounts${user.name}はAccounts\Joeになります(Joeがユーザー名であると仮定)。
- ユーザー名にテキスト修飾子を適用するには、キー${user.name}に.modifierを追加します。使用できる修飾子は ToLower、ToUpper、ToLowerCase、ToUpperCase、Trim です。
- 例:${user.name.toLowerCase}はJoeをjoeに変換します(Joeがユーザー名であると仮定)。
- ユーザーの認証情報にドメインを追加するには、[プロキシユーザー]フィールドに\domain_name${user.name}と入力します。Data Prepではユーザー名とドメインが渡されます。
Hive の構成¶
Hiveコネクターを使用してデータをエクスポートすると、ファイルがHDFSに書き込まれ、Hive JDBCドライバーを介してHiveに外部テーブルが作成されます。[プロキシユーザー]フィールドは、HDFSにファイルを書き込むときにインパーソネーションのユーザーアカウントを指定しますが、Hiveでインパーソネーションを行うには、JDBC URLでもユーザーを指定する必要があります。
-
JDBC URL: この URL を Hive へのアクセスに使用して、インポートおよび外部テーブルの登録を行います。Kerberos認証を使用する場合は、次の文字列をURLに追加する必要があります:";auth=kerberos;hive.server2.proxy.user=${user.name}。
-
プロキシユーザーが使用されている場合、文字列${user.name}をプロキシのユーザー名に置き換える必要があります。
-
Hiveファイルの場所:外部テーブルのHiveファイルの保存に使用されるHDFS内の場所。
資格情報¶
- Hive ユーザー: シンプル認証で Hive へのアクセスに使用するユーザー名です。
- Hive パスワード: シンプル認証で Hive へのアクセスに使用するパスワードです。
Hive のオプション¶
- インポー ト前のSQL: インポート開始前に実行する、改行で区切られた SQL ステートメントです。このSQLは(プレビューとインポートのために)複数回実行される可能性があり、改行で区切られた複数のSQLステートメントになることがあります。
- インポート後のSQL:インポート処理後に実行されるSQL。このSQLは(プレビューとインポートのために)複数回実行される可能性があり、改行で区切られた複数のSQLステートメントになることがあります。
備考
インポート前およびインポート後のSQLはインポートプロセスを通して複数回実行される可能性があります。インポートが実行されるたびにこの設定に基づくSQLが実行されるため、これらの値をコネクタ/データソース設定で指定するときは注意が必要です。*
- エクスポート前のSQL:エクスポートプロセスの前に実行されるSQL。このSQLは1回実行され、改行で区切られた複数のSQLステートメントになる場合があります。
- エクスポート後のSQL:エクスポート完了後に実行する SQL ステートメントです。このSQLは1回実行され、改行で区切られた複数のSQLステートメントになる場合があります。
データインポート情報¶
ブラウジング経由¶
サポートされていません
SQLクエリー経由¶
SQL選択クエリの使用