DP-100日本語試験無料問題集「Microsoft Designing and Implementing a Data Science Solution on Azure (DP-100日本語版) 認定」
CPU ベースのコンピューティング クラスターと Azure Kubernetes Services (AKS) 推論クラスターを含む Azure Machine Learning ワークスペースがあります。分類モデルの作成に使用する予定のデータを含む表形式のデータセットを作成します。
Azure Machine Learning デザイナーを使用して、クライアント アプリケーションが新しいデータを送信し、応答として即時の予測を取得することで分類モデルを使用できる Web サービスを作成する必要があります。
順番に実行する必要がある 3 つのアクションはどれですか。回答するには、適切なアクションをアクション リストから回答領域に移動し、正しい順序に並べます。

Azure Machine Learning デザイナーを使用して、クライアント アプリケーションが新しいデータを送信し、応答として即時の予測を取得することで分類モデルを使用できる Web サービスを作成する必要があります。
順番に実行する必要がある 3 つのアクションはどれですか。回答するには、適切なアクションをアクション リストから回答領域に移動し、正しい順序に並べます。

正解:

Explanation:

Step 1: Create and start a Compute Instance
To train and deploy models using Azure Machine Learning designer, you need compute on which to run the training process, test the model, and host the model in a deployed service.
There are four kinds of compute resource you can create:
Compute Instances: Development workstations that data scientists can use to work with data and models.
Compute Clusters: Scalable clusters of virtual machines for on-demand processing of experiment code.
Inference Clusters: Deployment targets for predictive services that use your trained models.
Attached Compute: Links to existing Azure compute resources, such as Virtual Machines or Azure Databricks clusters.
Step 2: Create and run a training pipeline..
After you've used data transformations to prepare the data, you can use it to train a machine learning model.
Create and run a training pipeline
Step 3: Create and run a real-time inference pipeline
After creating and running a pipeline to train the model, you need a second pipeline that performs the same data transformations for new data, and then uses the trained model to inference (in other words, predict) label values based on its features. This pipeline will form the basis for a predictive service that you can publish for applications to use.
Reference:
https://docs.microsoft.com/en-us/learn/modules/create-classification-model-azure-machine-learning-designer/
Azure Machine Learning データセットを作成します。Azure Machine Learning デザイナーを使用して、Python スクリプト実行コンポーネントとカスタムコードを使用してデータセットを変換します。
スクリプトと関連ライブラリをスクリプト バンドルとしてアップロードする必要があります。
Python スクリプト実行コンポーネントを構成する必要があります。
どのような構成を使用する必要がありますか? 回答するには、回答領域で適切なオプションを選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。

スクリプトと関連ライブラリをスクリプト バンドルとしてアップロードする必要があります。
Python スクリプト実行コンポーネントを構成する必要があります。
どのような構成を使用する必要がありますか? 回答するには、回答領域で適切なオプションを選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。

正解:

Explanation:

Azure Machine Learning 実験として Python スクリプトを実行する予定です。
スクリプトには次のコードが含まれています。
os、argparse、globをインポートする
azureml.core からインポートして実行
パーサー = argparse.ArgumentParser()
パーサー.add_argument('--input-data',
タイプ = str、宛先 = 'data_folder')
引数 = parser.parse_args()
データパス = args.データフォルダ
file_paths = glob.glob(data_path + "/*.jpg")
スクリプトへの入力としてファイルデータセットを指定する必要があります。データセットは複数の大きな画像ファイルで構成されており、ソースから直接ストリーミングする必要があります。
実験用の ScriptRunConfig オブジェクトを定義し、ds データセットを引数として渡すコードを記述する必要があります。
どのコードセグメントを使用する必要がありますか?
スクリプトには次のコードが含まれています。
os、argparse、globをインポートする
azureml.core からインポートして実行
パーサー = argparse.ArgumentParser()
パーサー.add_argument('--input-data',
タイプ = str、宛先 = 'data_folder')
引数 = parser.parse_args()
データパス = args.データフォルダ
file_paths = glob.glob(data_path + "/*.jpg")
スクリプトへの入力としてファイルデータセットを指定する必要があります。データセットは複数の大きな画像ファイルで構成されており、ソースから直接ストリーミングする必要があります。
実験用の ScriptRunConfig オブジェクトを定義し、ds データセットを引数として渡すコードを記述する必要があります。
どのコードセグメントを使用する必要がありますか?
正解:A
解答を投票する
解説: (GoShiken メンバーにのみ表示されます)
Azure Machine Learning サービスを使用して、training.data という表形式のデータセットを作成します。このデータセットをトレーニング スクリプトで使用する予定です。
次のコードを使用して、データセットを参照する変数を作成します。
training_ds = ワークスペース.datasets.get("トレーニングデータ")
スクリプトを実行するための推定値を定義します。
スクリプトが training.data データセットにアクセスできるようにするには、推定値の正しいプロパティを設定する必要があります。どのプロパティを設定する必要がありますか?
次のコードを使用して、データセットを参照する変数を作成します。
training_ds = ワークスペース.datasets.get("トレーニングデータ")
スクリプトを実行するための推定値を定義します。
スクリプトが training.data データセットにアクセスできるようにするには、推定値の正しいプロパティを設定する必要があります。どのプロパティを設定する必要がありますか?
正解:C
解答を投票する
解説: (GoShiken メンバーにのみ表示されます)
Azure Al Foundryプロジェクトでチャットフローを開発する
Jinja言語ベースのプロンプトテンプレートをHowに含める予定です
フローに含まれる入力と出力のリストを表示するには、提供されたテンプレートを完了する必要があります。
提供されたテンプレートをどのように完了すればよいですか? 回答するには、回答領域で適切なオプションを選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。

Jinja言語ベースのプロンプトテンプレートをHowに含める予定です
フローに含まれる入力と出力のリストを表示するには、提供されたテンプレートを完了する必要があります。
提供されたテンプレートをどのように完了すればよいですか? 回答するには、回答領域で適切なオプションを選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。

正解:

Explanation:

Azure Machine Learning ワークスペースを管理しています。model1 というモデルをトレーニングします。
異なるモデル予測結果を得るためには、変更する機能を特定する必要があります。
model1 の Responsible Al (RAI) ダッシュボードを構成する必要があります。
どの 3 つのアクションを順番に実行する必要がありますか? 回答するには、適切なアクションをアクション リストから回答領域に移動し、正しい順序に並べます。

異なるモデル予測結果を得るためには、変更する機能を特定する必要があります。
model1 の Responsible Al (RAI) ダッシュボードを構成する必要があります。
どの 3 つのアクションを順番に実行する必要がありますか? 回答するには、適切なアクションをアクション リストから回答領域に移動し、正しい順序に並べます。

正解:

Explanation:

注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、記載された目標を達成する可能性のある独自のソリューションが含まれています。一部の質問セットには複数の正しい解決策がある場合もあれば、正しい解決策がない場合もあります。
このセクションの質問に回答すると、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
複数の列に欠損値を含む数値データセットを分析しています。
機能セットの次元に影響を与えることなく、適切な操作を使用して欠損値を消去する必要があります。
すべての値を含めるには、完全なデータセットを分析する必要があります。
解決策:列の中央値を計算し、中央値を列の欠損値の置換として使用します。
ソリューションは目標を達成していますか?
このセクションの質問に回答すると、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
複数の列に欠損値を含む数値データセットを分析しています。
機能セットの次元に影響を与えることなく、適切な操作を使用して欠損値を消去する必要があります。
すべての値を含めるには、完全なデータセットを分析する必要があります。
解決策:列の中央値を計算し、中央値を列の欠損値の置換として使用します。
ソリューションは目標を達成していますか?
正解:B
解答を投票する
解説: (GoShiken メンバーにのみ表示されます)
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、記載された目標を達成する可能性のある独自のソリューションが含まれています。一部の質問セットには複数の正しい解決策がある場合もあれば、正しい解決策がない場合もあります。
このセクションの質問に回答すると、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
あなたはAzure Machine Learning Studioを使用しているデータサイエンティストです。
ターゲット列を予測するには、値を正規化して出力列をビンに生成する必要があります。
解決策:ビニングモードをカスタムの開始および停止モードで等幅に適用します。
ソリューションは目標を達成していますか?
このセクションの質問に回答すると、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
あなたはAzure Machine Learning Studioを使用しているデータサイエンティストです。
ターゲット列を予測するには、値を正規化して出力列をビンに生成する必要があります。
解決策:ビニングモードをカスタムの開始および停止モードで等幅に適用します。
ソリューションは目標を達成していますか?
正解:B
解答を投票する
解説: (GoShiken メンバーにのみ表示されます)
Azure Databricks ワークスペースとリンクされた Azure Machine Learning ワークスペースを作成します。
Azure Machine Learning ワークスペースに次の Python コード セグメントがあります。
mlflowをインポートする
mlflow.azuremlをインポートする
azureml.mlflowをインポートする
azureml.core をインポートする
azureml.core からワークスペースをインポート
subscription_id = 'サブスクリプションID'
resourse_group = 'リソースグループ名'
ワークスペース名 = 'ワークスペース名'
ws = Workspace.get(name=ワークスペース名,
subscription_id=サブスクリプションID、
resource_group=リソースグループ)
experimentName = "/Users/{user_name}/{experiment_folder}/{experiment_name}" mlflow.set_experiment(experimentName) uri = ws.get_mlflow_tracking_uri() mlflow.set_tracking_uri(uri) 手順: 以下の各文について、該当する場合は「はい」を選択してください。そうでない場合は「いいえ」を選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。

Azure Machine Learning ワークスペースに次の Python コード セグメントがあります。
mlflowをインポートする
mlflow.azuremlをインポートする
azureml.mlflowをインポートする
azureml.core をインポートする
azureml.core からワークスペースをインポート
subscription_id = 'サブスクリプションID'
resourse_group = 'リソースグループ名'
ワークスペース名 = 'ワークスペース名'
ws = Workspace.get(name=ワークスペース名,
subscription_id=サブスクリプションID、
resource_group=リソースグループ)
experimentName = "/Users/{user_name}/{experiment_folder}/{experiment_name}" mlflow.set_experiment(experimentName) uri = ws.get_mlflow_tracking_uri() mlflow.set_tracking_uri(uri) 手順: 以下の各文について、該当する場合は「はい」を選択してください。そうでない場合は「いいえ」を選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。

正解:

Explanation:

Box 1: No
The Workspace.get method loads an existing workspace without using configuration files.
ws = Workspace.get(name="myworkspace",
subscription_id='<azure-subscription-id>',
resource_group='myresourcegroup')
Box 2: Yes
MLflow Tracking with Azure Machine Learning lets you store the logged metrics and artifacts from your local runs into your Azure Machine Learning workspace.
The get_mlflow_tracking_uri() method assigns a unique tracking URI address to the workspace, ws, and set_tracking_uri() points the MLflow tracking URI to that address.
Box 3: Yes
Note: In Deep Learning, epoch means the total dataset is passed forward and backward in a neural network once.
Reference:
https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-use-mlflow