DP-100日本語試験無料問題集「Microsoft Designing and Implementing a Data Science Solution on Azure (DP-100日本語版) 認定」

CPU ベースのコンピューティング クラスターと Azure Kubernetes Services (AKS) 推論クラスターを含む Azure Machine Learning ワークスペースがあります。分類モデルの作成に使用する予定のデータを含む表形式のデータセットを作成します。
Azure Machine Learning デザイナーを使用して、クライアント アプリケーションが新しいデータを送信し、応答として即時の予測を取得することで分類モデルを使用できる Web サービスを作成する必要があります。
順番に実行する必要がある 3 つのアクションはどれですか。回答するには、適切なアクションをアクション リストから回答領域に移動し、正しい順序に並べます。
正解:

Explanation:

Step 1: Create and start a Compute Instance
To train and deploy models using Azure Machine Learning designer, you need compute on which to run the training process, test the model, and host the model in a deployed service.
There are four kinds of compute resource you can create:
Compute Instances: Development workstations that data scientists can use to work with data and models.
Compute Clusters: Scalable clusters of virtual machines for on-demand processing of experiment code.
Inference Clusters: Deployment targets for predictive services that use your trained models.
Attached Compute: Links to existing Azure compute resources, such as Virtual Machines or Azure Databricks clusters.
Step 2: Create and run a training pipeline..
After you've used data transformations to prepare the data, you can use it to train a machine learning model.
Create and run a training pipeline
Step 3: Create and run a real-time inference pipeline
After creating and running a pipeline to train the model, you need a second pipeline that performs the same data transformations for new data, and then uses the trained model to inference (in other words, predict) label values based on its features. This pipeline will form the basis for a predictive service that you can publish for applications to use.
Reference:
https://docs.microsoft.com/en-us/learn/modules/create-classification-model-azure-machine-learning-designer/
Azure Machine Learning データセットを作成します。Azure Machine Learning デザイナーを使用して、Python スクリプト実行コンポーネントとカスタムコードを使用してデータセットを変換します。
スクリプトと関連ライブラリをスクリプト バンドルとしてアップロードする必要があります。
Python スクリプト実行コンポーネントを構成する必要があります。
どのような構成を使用する必要がありますか? 回答するには、回答領域で適切なオプションを選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。
正解:

Explanation:
Azure Machine Learning ワークスペースを管理します。
Azure Machine Learning Python SDK v2 を使用して、自然言語処理(NLP)テキスト分類モデルを複数の言語で実行する予定です。自動機械学習を使用して、テキスト分類ジョブの言語を構成する必要があります。TextClassifkationlob クラスのどのメソッドを使用すればよいですか?

新しいAzureサブスクリプションを作成します。サブスクリプションではリソースはプロビジョニングされません。
Azure MachineLearningワークスペースを作成する必要があります。
この目標を達成するための3つの可能な方法は何ですか?それぞれの正解は完全な解決策を提示します。
注:正しい選択はそれぞれ1ポイントの価値があります。

正解:A,C,D 解答を投票する
解説: (GoShiken メンバーにのみ表示されます)
Azure Machine Learning 実験として Python スクリプトを実行する予定です。
スクリプトには次のコードが含まれています。
os、argparse、globをインポートする
azureml.core からインポートして実行
パーサー = argparse.ArgumentParser()
パーサー.add_argument('--input-data',
タイプ = str、宛先 = 'data_folder')
引数 = parser.parse_args()
データパス = args.データフォルダ
file_paths = glob.glob(data_path + "/*.jpg")
スクリプトへの入力としてファイルデータセットを指定する必要があります。データセットは複数の大きな画像ファイルで構成されており、ソースから直接ストリーミングする必要があります。
実験用の ScriptRunConfig オブジェクトを定義し、ds データセットを引数として渡すコードを記述する必要があります。
どのコードセグメントを使用する必要がありますか?

解説: (GoShiken メンバーにのみ表示されます)
Azure Machine Learning Designer を使用して、次のデータセットを実験に読み込みます。
データセット1:

データセット2:

入力データセットと同じ列とヘッダー行を持ち、両方の入力データセットのすべての行が含まれるデータセットを作成する必要があります。
解決策: 行の追加コンポーネントを使用します。
ソリューションは目標を満たしていますか?

Azure Machine Learning サービスを使用して、training.data という表形式のデータセットを作成します。このデータセットをトレーニング スクリプトで使用する予定です。
次のコードを使用して、データセットを参照する変数を作成します。
training_ds = ワークスペース.datasets.get("トレーニングデータ")
スクリプトを実行するための推定値を定義します。
スクリプトが training.data データセットにアクセスできるようにするには、推定値の正しいプロパティを設定する必要があります。どのプロパティを設定する必要がありますか?

解説: (GoShiken メンバーにのみ表示されます)
Azure Al Foundryプロジェクトでチャットフローを開発する
Jinja言語ベースのプロンプトテンプレートをHowに含める予定です
フローに含まれる入力と出力のリストを表示するには、提供されたテンプレートを完了する必要があります。
提供されたテンプレートをどのように完了すればよいですか? 回答するには、回答領域で適切なオプションを選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。
正解:

Explanation:
Azure Machine Learning ワークスペースを管理しています。サーバーレス コンピューティングで構成されたトレーニング ジョブを設計しています。サーバーレス コンピューティングには、特定のインスタンスの種類と数が必要です。Azure Machine Learning Python SDK v2 を使用してサーバーレス コンピューティングを構成する必要があります。何をすればよいでしょうか。

Azure Al Foundry プロジェクトを管理します。
大規模言語モデル(LLM)ノードと、単一の出力を持つ上流ノードを含むPromptフローを開発します。YAMLフロー設定を使用して、LLMノードの入力と上流ノードの出力をリンクする必要があります。どのフロー設定を使用すればよいですか?

Azure Machine Learning ワークスペースを管理しています。model1 というモデルをトレーニングします。
異なるモデル予測結果を得るためには、変更する機能を特定する必要があります。
model1 の Responsible Al (RAI) ダッシュボードを構成する必要があります。
どの 3 つのアクションを順番に実行する必要がありますか? 回答するには、適切なアクションをアクション リストから回答領域に移動し、正しい順序に並べます。
正解:

Explanation:
Azure Machine Learning Studio を使用してワークスペースを作成します。
Azure Machine Learning Studio を使用して、ワークスペースで Python SDK v2 ノートブックを実行する必要があります。
ノートブックの状態をリセットする必要があります。
どの 3 つのアクションを使用する必要がありますか? それぞれの正解は完全な解決策を示します。
注意: 正しい選択ごとに 1 ポイントが付与されます。

正解:B,C,D 解答を投票する
クラスAの100個のサンプルとクラスBの10,000個のサンプルを含むデータセットで分類モデルを作成します。クラスBのバリエーションは非常に大きくなっています。
不均衡を解決する必要があります。
どの方法を使用する必要がありますか?

注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、記載された目標を達成する可能性のある独自のソリューションが含まれています。一部の質問セットには複数の正しい解決策がある場合もあれば、正しい解決策がない場合もあります。
このセクションの質問に回答すると、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
複数の列に欠損値を含む数値データセットを分析しています。
機能セットの次元に影響を与えることなく、適切な操作を使用して欠損値を消去する必要があります。
すべての値を含めるには、完全なデータセットを分析する必要があります。
解決策:列の中央値を計算し、中央値を列の欠損値の置換として使用します。
ソリューションは目標を達成していますか?

解説: (GoShiken メンバーにのみ表示されます)
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、記載された目標を達成する可能性のある独自のソリューションが含まれています。一部の質問セットには複数の正しい解決策がある場合もあれば、正しい解決策がない場合もあります。
このセクションの質問に回答すると、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
あなたはAzure Machine Learning Studioを使用しているデータサイエンティストです。
ターゲット列を予測するには、値を正規化して出力列をビンに生成する必要があります。
解決策:ビニングモードをカスタムの開始および停止モードで等幅に適用します。
ソリューションは目標を達成していますか?

解説: (GoShiken メンバーにのみ表示されます)
Azure Machine Learning ワークスペースを管理します。
MLflow モデルは既に登録されています。デプロイメントでの推論方法をカスタマイズする予定です。バッチ推論のために、MLflow モデルをバッチ エンドポイントにデプロイする必要があります。最初に何を作成する必要がありますか?

あなたは、画像分類のための深い畳み込みニューラルネットワーク(CNN)を構築するデータサイエンティストです。
構築したCNNモデルは、過剰適合の兆候を示しています。
過剰適合を減らし、モデルを最適な適合に収束させる必要があります。
実行すべき2つのアクションはどれですか?それぞれの正解は完全な解決策を提示します。
注:それぞれの正しい選択には1ポイントの価値があります。

解説: (GoShiken メンバーにのみ表示されます)
バッチ推論パイプラインで使用する予定のモデルを登録します。
バッチ推論パイプラインは、ParallelRunStepステップを使用して、ファイルデータセット内のファイルを処理する必要があります。スクリプトにはParallelRunStepステップの実行があり、推論関数が呼び出されるたびに6つの入力ファイルを処理する必要があります。
パイプラインを構成する必要があります。
PrallelRunStepステップのParallelRunConfigオブジェクトでどの構成設定を指定する必要がありますか?

解説: (GoShiken メンバーにのみ表示されます)
Azure Databricks ワークスペースとリンクされた Azure Machine Learning ワークスペースを作成します。
Azure Machine Learning ワークスペースに次の Python コード セグメントがあります。
mlflowをインポートする
mlflow.azuremlをインポートする
azureml.mlflowをインポートする
azureml.core をインポートする
azureml.core からワークスペースをインポート
subscription_id = 'サブスクリプションID'
resourse_group = 'リソースグループ名'
ワークスペース名 = 'ワークスペース名'
ws = Workspace.get(name=ワークスペース名,
subscription_id=サブスクリプションID、
resource_group=リソースグループ)
experimentName = "/Users/{user_name}/{experiment_folder}/{experiment_name}" mlflow.set_experiment(experimentName) uri = ws.get_mlflow_tracking_uri() mlflow.set_tracking_uri(uri) 手順: 以下の各文について、該当する場合は「はい」を選択してください。そうでない場合は「いいえ」を選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。
正解:

Explanation:

Box 1: No
The Workspace.get method loads an existing workspace without using configuration files.
ws = Workspace.get(name="myworkspace",
subscription_id='<azure-subscription-id>',
resource_group='myresourcegroup')
Box 2: Yes
MLflow Tracking with Azure Machine Learning lets you store the logged metrics and artifacts from your local runs into your Azure Machine Learning workspace.
The get_mlflow_tracking_uri() method assigns a unique tracking URI address to the workspace, ws, and set_tracking_uri() points the MLflow tracking URI to that address.
Box 3: Yes
Note: In Deep Learning, epoch means the total dataset is passed forward and backward in a neural network once.
Reference:
https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace
https://docs.microsoft.com/en-us/azure/machine-learning/how-to-use-mlflow
Azure Machine Learning Python SDK v2 を使用して自動機械学習を活用し、回帰モデルをトレーニングする予定です。欠損値を持つ特徴量と、明確な値が少ないカテゴリ特徴量を含むデータがあります。
自動機械学習が学習タスクの一環として、欠損値を自動的に補完し、カテゴリ特徴量をエンコードするかどうかを制御する必要があります。どの「秋の敵」パッケージを使用すべきでしょうか?