banner
ホームページ / ブログ / ロジスティック回帰の謎を解く: シンプルなガイド
ブログ

ロジスティック回帰の謎を解く: シンプルなガイド

Jul 01, 2023Jul 01, 2023

ウェイチン・チュア

フォローする

人間になる: 人工知能マガジン

--

聞く

共有

データ サイエンスと機械学習の世界では、ロジスティック回帰は強力で広く使用されているアルゴリズムです。 その名前にもかかわらず、物流や荷物の移動の取り扱いとは何の関係もありません。 むしろ、これは分類タスクの基本的なツールであり、何かが「はい/いいえ」、「真/偽​​」、またはスパム/スパムではないなど、2 つのカテゴリのいずれかに属するかどうかを予測するのに役立ちます。 このブログでは、ロジスティック回帰の概念を分解し、できるだけ簡単に説明します。

ロジスティック回帰は、教師あり学習アルゴリズムの一種です。 「回帰」という用語は、線形回帰のような連続値の予測には使用されないため、誤解を招く可能性があります。 代わりに、バイナリ分類の問題を扱います。 言い換えれば、単純な「はい」または「いいえ」で答えられる質問に答えます。

あなたが大学の入学担当官で、テストのスコアに基づいて学生が入学するかどうかを予測したいとします。 ロジスティック回帰はその予測に役立ちます。

ロジスティック回帰の中核にはシグモイド関数があります。 複雑に聞こえるかもしれませんが、これは入力を 0 と 1 の間の値に押しつぶす単なる数学関数です。

シグモイド関数の式は次のとおりです。

どこ:

それを視覚化してみましょう:

ご覧のとおり、シグモイド関数は、z の大きな正の値を 1 に近い値にマップし、大きな負の値を 0 に近い値にマップします。z = 0 の場合、sigmoid(z)はちょうど 0.5 です。

シグモイド関数については理解しましたが、それは予測にどのように役立つのでしょうか?

ロジスティック回帰では、入力特徴の線形結合の結果であるスコアを各データ ポイントに割り当てます。 次に、このスコアをシグモイド関数に渡して、0 から 1 までの確率値を取得します。

数学的には、スコア z は次のように計算されます。

どこ:

確率シグモイド(z)、データ ポイントが陽性クラス (入院など) に属する可能性として解釈できます。

ロジスティック回帰では確率が得られるため、その確率に基づいて意思決定を行う必要があります。 これを行うには、しきい値 (通常は 0.5) を設定します。 シグモイド(z) 0.5 以上の場合、陽性クラスを予測します。 それ以外の場合は、負のクラスを予測します。

要約すると、ロジスティック回帰は、二項分類問題に対してシンプルだが効果的なアルゴリズムです。 シグモイド関数を使用してスコアを確率にマッピングし、結果の解釈を容易にします。

ロジスティック回帰は、機械学習の広大で刺激的な分野の一部にすぎませんが、データ サイエンスへの取り組みにおいて重要な構成要素であることを忘れないでください。 分類を楽しんでください。

1. 二項分類のロジスティック回帰: ロジスティック回帰は、二項分類タスクに使用される強力なアルゴリズムです。 これは、何かが 2 つのカテゴリのいずれかに属するかどうかを予測するのに役立ち、はい/いいえ、真/偽、またはスパム/スパムではないシナリオに最適です。

2. シグモイド関数: ロジスティック回帰の中心には、入力値を 0 と 1 の間の確率にマッピングするシグモイド関数があります。この関数は、入力特徴の線形結合を確率スコアに変換する際に重要です。

3. 確率の解釈: 他の回帰手法とは異なり、ロジスティック回帰は連続値ではなく確率を生成します。 これらの確率は、データ ポイントがポジティブ クラスに属する可能性を表し、モデルの予測を明確に理解できるようになります。

4. しきい値の設定: 実際の予測を行うために、しきい値が設定されます (通常は 0.5)。 予測された確率がしきい値以上の場合、陽性クラスが予測されます。 それ以外の場合は、ネガティブ クラスが予測されます。 しきい値を調整すると、モデルの精度と再現率のトレードオフに影響を与える可能性があります。