統計学

アルゴリズム

機械学習におけるL1ノルム損失: 平均絶対誤差とは?

- 損失関数とは 機械学習の目的は、与えられたデータから将来の予測や判断を行うことができるモデルを構築することです。このモデルの精度を高めるためには、モデルの予測と実際の値との間の誤差を評価する必要があります。この誤差を数値化し、モデルの学習に利用するのが損失関数です。 損失関数は、予測値と実際の値の差異が大きくなるほど、その値も大きくなるように設計されています。例えば、画像認識のタスクで、猫の画像を犬と誤って予測した場合、損失関数は大きな値を示します。逆に、猫の画像を正しく猫と予測した場合、損失関数は小さな値を示します。 機械学習のモデルは、この損失関数の値を最小化するように学習を進めます。具体的には、損失関数の値が小さくなるように、モデル内部のパラメータを調整していくのです。このプロセスは、ちょうど坂道を下るように、損失関数の値が最小となる点を探し出すイメージです。そして、損失関数の値が十分に小さくなった時点で、モデルの学習は完了となります。
アルゴリズム

予測精度を比較!相対絶対誤差とは?

機械学習の世界では、モデルの性能を正確に評価することが非常に重要です。モデルの予測能力を測る指標の一つとして、-誤差-という概念が用いられます。誤差とは、モデルが予測した値と実際の値との間のずれを表す尺度です。このずれが小さいほど、モデルの予測精度が高いことを示唆します。逆に、ずれが大きい場合は、モデルの予測精度が低いことを意味します。 誤差を計算することは、モデルの改善点を特定するために非常に役立ちます。誤差分析を通じて、モデルがどのような場合に間違えやすいのか、どのようなデータに対して弱いのかを把握することができます。これらの情報を基に、モデルの構造や学習方法を調整することで、より精度の高い予測を行うようにモデルを改善することが可能になります。 誤差には、平均二乗誤差や平均絶対誤差など、様々な種類があります。それぞれの誤差関数は異なる特性を持つため、目的に応じて適切なものを選択する必要があります。例えば、外れ値の影響を受けにくい指標を用いたい場合は、平均絶対誤差が適しています。 機械学習モデル開発において、誤差分析は欠かせないプロセスです。誤差を正しく理解し、その分析結果をモデルの改善に活かすことで、より高精度な予測モデルを構築することができるでしょう。
アルゴリズム

関係性の強さを測る!相関係数の基礎知識

世の中には、一見関係なさそうでも実は深く結びついているものや、逆に関係ありそうで全く無関係なものなど、様々なものが存在します。例えば、気温の変化とアイスクリームの売上はどうでしょうか。気温が上がればアイスクリームの売上が伸び、気温が下がれば売上が落ちるといったように、二つの間には何らかの関係性がありそうです。また、勉強時間とテストの成績の関係も気になるところです。勉強時間が長くなればテストの成績が上がり、短ければ成績が下がるというように、こちらにも関係性がありそうです。 しかし、これらの関係性を感覚だけで捉えるのではなく、数値で表して客観的に分析できたらより深く理解することができます。そこで役に立つのが相関係数です。相関係数は、二つの要素の間の関係性の強さを-1から1までの数値で表します。相関係数が1に近いほど正の相関が強く、一方が増加すればもう一方も増加する傾向があります。逆に-1に近いほど負の相関が強く、一方が増加すればもう一方は減少する傾向があります。そして、0に近い場合は相関が弱く、二つの要素間に明確な関係性は見られないと言えます。 このように、相関係数を用いることで、一見関係なさそうなもの同士の関係や、逆に関係ありそうなのに実は無関係なものなど、様々な事象の関係性を客観的に分析することができます。
アルゴリズム

外れ値に強い?トリム平均を解説

- トリム平均とはデータ全体の特徴を掴みたい時に、よく平均値が使われます。しかし、極端に大きい値や小さい値がデータに含まれている場合、平均値はその影響を大きく受けてしまいます。例えば、{1, 2, 3, 4, 100}というデータの場合、平均値は22となり、データの大部分を占める1から4の値とは大きくかけ離れた値になってしまいます。このような場合に有効なのが、-トリム平均-です。トリム平均は、データを小さい順に並べ、両端から指定した割合分のデータを取り除いた後に平均値を計算します。例えば、先ほどの{1, 2, 3, 4, 100}というデータに対して、両端から1つずつデータを取り除いて(つまり20%トリム)平均値を計算すると、(2+3+4)/3=3となり、データの大部分を占める値に近い値を得ることができます。トリム平均は、異常値の影響を受けにくいという点で通常の平均値よりも頑健な指標と言えます。そのため、経済指標やスポーツ選手の成績など、外れ値の影響を受けやすいデータを扱う際に利用されることがあります。
アルゴリズム

精度:機械学習モデルの性能指標

- 精度の基礎知識機械学習の目的は、大量のデータから学習し、未知のデータに対しても高い予測能力を持つモデルを構築することです。モデルの性能を評価することは、モデルの改善点を明確化し、より精度の高い予測を実現するために非常に重要です。モデルの性能を示す指標は数多くありますが、その中でも「精度」は最も基本的な指標の一つとして広く認識されています。精度は、簡単に言えばモデルがどれだけ正確に予測できるかを表す指標です。例えば、犬と猫を見分ける画像認識モデルを開発したとします。このモデルに100枚の画像を与え、その内90枚を正しく犬または猫に分類できた場合、このモデルの精度は90%となります。つまり、精度は「全体のデータの中で、モデルが正しく予測できたデータの割合」として計算されます。しかし、精度はモデルの性能を測る上で万能な指標ではありません。なぜなら、データの偏りや、場合によっては間違った予測の方が影響が大きい場合もあるからです。例えば、病気の診断のように、病気でない人を病気と誤診するよりも、病気の人を病気でないと誤診する方がリスクが高い場合があります。このような場合には、精度だけでなく、他の指標も合わせて考慮することで、より多角的にモデルの性能を評価する必要があります。
アルゴリズム

Fβスコア:機械学習モデル評価の鍵

近年、様々な分野で活用されている機械学習は、大量のデータからパターンを学び、未知のデータに対しても予測を行うことを可能にする強力な技術です。 この技術は、例えば、画像認識、音声認識、自然言語処理、異常検知など、多岐にわたる分野で応用され、私たちの生活に革新をもたらしています。 機械学習を用いる上で、その予測精度が非常に重要となります。 なぜなら、機械学習モデルの予測結果に基づいて重要な意思決定が行われる場合も少なくないからです。 例えば、医療診断支援システムにおいて、患者の症状データから病気を予測する場合、その予測精度の高さが診断の正確性に直結します。 機械学習モデルの性能を評価するために、様々な指標が存在します。 これらの指標は、モデルの予測能力を多角的に評価するために用いられ、目的に応じて適切な指標を選択することが重要となります。 例えば、正解率は全体の中でどれだけ正解したかを表す基本的な指標ですが、データの偏りがある場合には適切な指標とは言えません。 数ある指標の中でも、「Fβスコア」は、適合率と再現率の調和平均によって計算される指標であり、機械学習モデルの性能を評価する上で重要な指標の一つです。 適合率は、モデルが「陽性」と予測したデータのうち、実際に「陽性」であったデータの割合を表し、再現率は、実際の「陽性」データのうち、モデルが正しく「陽性」と予測できたデータの割合を表します。 Fβスコアは、この二つの指標をバランス良く評価することで、モデルの総合的な性能を測ることができます。 βの値を調整することで、適合率と再現率のどちらを重視するかを調整することも可能です。
アルゴリズム

標本から全体を推測する統計学

- 推測統計学とは推測統計学は、限られたデータから、その背後にある巨大な集団の全体像を推測する統計学の一分野です。私たちの身の回りには、膨大な量のデータが存在しますが、そのすべてを調査することは現実的に不可能な場合がほとんどです。例えば、新発売のお菓子の味の評価を調べたい場合、全国民にアンケート調査を実施することは時間と費用がかかりすぎてしまいます。このような場合に役立つのが、推測統計学です。 推測統計学では、「標本」と呼ばれる一部のデータを集め、そのデータから元の巨大な集団である「母集団」の性質を推測します。先ほどの例では、全国民の中から無作為に選ばれた数千人を対象にアンケート調査を行い、その結果から全国民の味の評価を推測します。推測統計学では、標本から得られたデータをもとに、母集団の平均値やばらつきなどを推定したり、仮説を立ててその妥当性を検証したりします。例えば、新発売のお菓子の味について、「男性よりも女性のほうが好む」という仮説を立てたとします。この場合、標本データを用いて男女間の味の評価の差を分析し、その差が偶然によるものなのか、それとも統計的に意味のある差なのかを検証します。このように、推測統計学は、限られたデータから全体像を明らかにするための強力なツールであり、ビジネスや科学など様々な分野で活用されています。
アルゴリズム

説明変数の力:分散説明率とは?

統計学や機械学習において、私たちはデータを分析し、そこから未来を予測するモデルを作ります。しかし、作ったモデルが実際にどれくらい使えるのか、その性能を測る必要があります。この「モデルの性能評価」において重要な役割を果たすのが「分散説明率」です。 分散説明率は、簡単に言うと、モデルがデータのばらつきをどれくらい説明できるのかを表す指標です。例えば、アイスクリームの売上を予測するモデルがあるとします。気温が高くなるとアイスクリームの売上も増えるという関係をモデルが捉えている場合、気温の変化によって生じる売上のばらつきを、モデルはうまく説明できるでしょう。 分散説明率が高いほど、モデルはデータのばらつきをよく説明できていることを意味し、モデルの当てはまりが良いと評価されます。逆に、分散説明率が低い場合は、モデルがデータのばらつきを十分に説明できていないことを意味し、モデルの精度が低い可能性を示唆しています。 ただし、分散説明率だけでモデルの良し悪しを判断するべきではありません。モデルが複雑になりすぎると、見かけ上の分散説明率は高くなりますが、それは単にデータに過剰に適合しているだけで、新たなデータに対する予測性能は低い可能性があります。 そのため、分散説明率は他の指標と組み合わせて、モデルの総合的な性能を評価する必要があることを覚えておきましょう。
アルゴリズム

データ分析の基礎!サンプリングとは?

- サンプリングとは世論調査や製品の満足度調査など、私たちは様々な場面で調査結果を目にします。これらの調査は、どのようにして行われているのでしょうか。多くの人が対象となる調査を行う場合、全員に尋ねることは時間や費用の面で現実的ではありません。そこで行われるのが「サンプリング」です。サンプリングとは、調査対象となる集団全体(母集団)から、一部を抜き出して調査を行うことを指します。例えば、新発売のお菓子の味が10代の若者に受けるかどうかを調査したいとします。この場合、日本全国の10代の若者が母集団となりますが、全員に調査を行うことは現実的ではありません。そこで、全国の10代の若者の中から、特定の人数を選び出して調査を行います。この選ばれた人々が「サンプル」であり、サンプルを選ぶ行為が「サンプリング」です。サンプリングの重要性は、適切な方法でサンプルを選ぶことで、母集団全体の傾向を正しく推測できるという点にあります。例えば、先ほどのお菓子の例で、サンプルとして都心に住む裕福な家庭の子供ばかりを選んでしまうと、調査結果は全国の10代の若者の意見を反映しているとは言えません。母集団の特徴を考慮せずにサンプルを選ぶと、偏った結果が出てしまう可能性があります。サンプリングには様々な方法があり、調査の目的や母集団の特性によって適切な方法を選ぶ必要があります。適切なサンプリングを行うことで、より正確で信頼性の高い調査結果を得ることが可能になります。
アルゴリズム

重み付きF値:機械学習モデルの評価指標

- 重み付きF値とは 機械学習の分野では、作成したモデルの良し悪しを測るために、様々な評価指標を用います。その中でも、重み付きF値は、データの偏りが大きい場合に、モデルの性能を正しく評価するために非常に重要な指標となります。 モデルの性能を測る指標として、適合率、再現率、F値などが挙げられます。適合率は、モデルが「正しい」と判断したものの中で、実際にどれだけ正しかったのかを表す指標です。一方、再現率は、実際に正しいものの中で、モデルがどれだけ正しく「正しい」と判断できたかを表す指標です。そして、F値は、適合率と再現率の調和平均をとることで、両方の指標をバランス良く評価します。 しかし、現実のデータでは、「正しい」データと「間違っている」データの数が大きく異なる場合が多くあります。例えば、病気の診断を例に挙げると、病気の人は全体の1%しかいない一方で、健康な人は99%もいるという状況が考えられます。このようなデータの偏りがある場合、F値だけではモデルの性能を正しく評価できません。なぜなら、F値は、適合率と再現率を平等に扱ってしまうからです。 そこで、重み付きF値が登場します。重み付きF値は、適合率と再現率に異なる重み付けをすることで、データの偏りを考慮した評価を可能にします。具体的には、「正しい」データが少ない場合には、再現率を重視した評価になり、「間違っている」データが少ない場合には、適合率を重視した評価になります。 このように、重み付きF値は、データの偏りを考慮することで、より正確にモデルの性能を評価することができます。特に、医療診断や不正検知など、データの偏りが大きい分野においては、非常に重要な指標と言えるでしょう。
アルゴリズム

コサイン類似度:データ間の隠れた関係を探る

私たちが日常生活で接する情報量は膨大です。日々の買い物データ、インターネット上の行動履歴、音楽の好みなど、挙げればきりがありません。これらのデータは一見すると無関係な情報の羅列のように思えますが、実際には、そこには一定の法則性や関連性が潜んでいることが少なくありません。その法則性や関連性を明らかにする手段の一つとして、「類似度」という概念が登場します。 類似度は、異なるデータ同士がどれだけ似ているかを数値で表すことで、隠れた法則性や関連性を浮かび上がらせる有効な手段です。例えば、インターネット通販の購入履歴から、顧客の購買傾向を分析し、類似した商品を推薦するシステムなど、私たちの身の回りには類似度を活用したサービスが数多く存在します。 類似度の概念は、データ分析や機械学習といった分野において、重要な役割を担っています。大量のデータの中から、関連性の高い情報を効率的に抽出することで、精度の高い予測や分類を可能にします。具体的には、顧客の購買履歴に基づいた商品推薦や、過去の気象データに基づいた天気予報、顔認証システムなど、様々な場面で応用されています。 このように、一見すると無秩序に見えるデータの中から、意味のある情報を引き出す「類似度」は、情報化社会においてますますその重要性を増していくと考えられます。
ビッグデータ

データサイエンス: データ活用時代の必須知識

現代社会において、データは石油にも例えられるほど重要な資源となっています。しかし、ただデータを持っているだけでは、宝の持ち腐れです。データは、分析され、解釈され、活用されて初めて、その真価を発揮するのです。 データサイエンスは、膨大かつ複雑なデータから意味のある情報を抽出し、ビジネスや社会の課題解決に役立てるための学問分野です。 データサイエンスは、統計学、数学、コンピュータサイエンスなど、複数の分野を融合した学際的な分野です。機械学習や深層学習といった、近年著しい発展を遂げている人工知能技術も、データサイエンスにおいて重要な役割を担っています。これらの技術を用いることで、これまで人間では発見できなかったような、データに潜むパターンや規則性を見つけることが可能になります。 データサイエンスは、ビジネスの様々な場面で活用されています。例えば、顧客の購買履歴やウェブサイトの閲覧履歴などのデータを分析することで、顧客のニーズを把握し、より効果的なマーケティング戦略を立てることができます。また、生産データや在庫データなどを分析することで、生産効率の向上や在庫の最適化を実現することも可能です。 データサイエンスは、ビジネスの成功だけでなく、社会全体の課題解決にも貢献することができます。例えば、医療分野では、患者の診療データや遺伝子データなどを分析することで、病気の早期発見や予防、個別化医療の実現が期待されています。また、環境問題の解決や防災対策など、幅広い分野での活用が期待されています。
アルゴリズム

残差平方和:モデルの精度を測る物差し

- 残差平方和とは残差平方和は、統計学や機械学習において、モデルの予測精度を測る指標の一つです。 モデルがどれくらい正確に現実を捉えているかを評価する際に利用されます。例えば、ある商品が今後一週間でどれだけ売れるかを予測するモデルを考えてみましょう。このモデルは過去の販売データなどを学習し、未来の売上数を予測します。しかし、どんなに優れたモデルでも、現実の売れ行きと完全に一致する予測をすることは難しいでしょう。この予測値と実際の売上数の差が「残差」です。残差平方和は、それぞれのデータ点における残差を二乗し、それらをすべて足し合わせることで計算されます。 つまり、個々の予測誤差を考慮しつつ、全体としてのモデルの予測精度を評価することができます。もしモデルの予測精度が低く、現実とのずれが大きい場合は、残差も大きくなり、その結果残差平方和も大きくなります。反対に、モデルの予測精度が高い場合は、残差は小さくなり、残差平方和も小さくなります。残差平方和は、モデルの予測精度を評価する上で重要な指標ですが、単独で使用されることは少なく、他の指標と組み合わせて利用されることが多いです。 例えば、残差平方和をデータ数で割った平均二乗誤差や、自由度で調整した調整済み決定係数などが、モデル選択や評価に用いられます。
アルゴリズム

データの中心を掴む!最頻値とは?

データの分析を行う時、そのデータがどのような傾向を持っているかを把握することはとても大切です。その傾向を示す指標の一つに、「最頻値」というものがあります。最頻値とは、あるデータの集まりの中で最も多く出現する値のことを指します。例えば、ある小学校の6年生10人の身長を測ったとしましょう。その結果が、150cm、152cm、155cm、152cm、153cm、152cm、150cm、154cm、152cm、153cmだったとします。このデータを見ると、152cmという身長の生徒が最も多いことが分かります。このように、最も多く出現する値である152cmが、このデータにおける最頻値となります。最頻値は、平均値や中央値と並んで、データの中心的な傾向を表す指標として用いられます。これらの指標を組み合わせることで、データの分布をより深く理解することができます。
アルゴリズム

再現率:機械学習モデルの精度を測る

- 再現率とは再現率は、機械学習モデルがどれほど正確に情報を分類できるかを測る指標の一つです。膨大なデータの中から、本来 positive と判定すべきデータのうち、実際に positive と判定できたデータの割合 を示します。これは、機械学習モデルの性能評価において非常に重要な要素となります。例えば、病気の診断を例に考えてみましょう。100人の患者のうち、実際に病気にかかっている人が20人いるとします。この時、機械学習モデルが20人全員を正しく「病気」と診断できれば、再現率は100%となります。しかし、10人しか正しく診断できなかった場合、再現率は50%に低下します。再現率が高いということは、見逃しを減らす という点で優れています。病気の診断のように、陽性のデータを見逃すと深刻な事態につながる可能性がある場合、高い再現率が求められます。一方で、再現率だけに注目すると、本来は陰性であるデータを誤って陽性と判定してしまう場合もあります。そのため、再現率と適合率を組み合わせることで、より正確にモデルの性能を評価することが重要となります。
アルゴリズム

幾何平均:成長率を見るのに最適な平均

- 幾何平均とは幾何平均は、複数の数値を掛け合わせて、その積に対して要素数分の1乗根を取ることで求められます。 例えば、2、4、8という三つの数値の場合、まずこれらの数値を掛け合わせます(2 × 4 × 8 = 64)。次に、要素数が三つなので、64の三乗根を求めます。その結果、幾何平均は4となります。この計算方法は、特に成長率や比率のように、数値が互いに掛け合わされる関係にある場合に非常に役立ちます。 例えば、ある商品の価格が、一年目は2倍、二年目は4倍、三年目は8倍に上昇した場合、三年間の平均的な成長率を把握するために幾何平均を用いることができます。通常の算術平均とは異なり、幾何平均は極端な値の影響を受けにくいという特徴があります。そのため、ばらつきの大きいデータセットや、成長率のように変化率を扱う場合に適しています。 幾何平均は、金融分野や経済学において投資の平均利回りを計算したり、物価の変動率を分析したりする際など、幅広い分野で活用されています。
アルゴリズム

モデル評価の要: 感度とは?

- 感度の基礎知識感度は、統計学や機械学習の分野において、モデルの性能を評価する指標の一つであり、特に分類問題において重要な役割を担います。分類問題とは、例えばメールが迷惑メールかそうでないか、画像に写っている動物が犬か猫かを判別するなど、データをいくつかのカテゴリに分類する問題を指します。 感度は、実際に正であるデータのうち、どれだけを正しく正と予測できたかを表す指標です。言い換えれば、真陽性率とも呼ばれ、病気の診断を例に挙げると、実際に病気にかかっている人のうち、どれだけを正しく病気と診断できたかを表します。 感度は、病気の診断のように、取りこぼしを避けたい場合に特に重要な指標となります。例えば、深刻な病気を見逃すと、手遅れになる可能性もあるため、感度の高い診断方法が求められます。 一方で、感度が高いだけでは、必ずしもモデルの性能が良いとは言えません。なぜなら、感度が高いモデルは、実際には陰性であるデータに対しても、陽性と判定してしまう可能性があるからです。この場合、偽陽性率が高くなり、誤った診断につながる可能性も考えられます。 そのため、感度に加えて、実際に陰性であるデータをどれだけ正確に陰性と予測できたかを表す特異度も合わせて考慮することで、より正確にモデルの性能を評価することができます。
アルゴリズム

micro-F1入門:機械学習モデルの評価指標

機械学習モデルがどれくらいうまく現実を予測できるのかを評価することは、モデルの精度を高める上でとても大切です。その評価指標として、micro-F1スコアと呼ばれるものがあります。この指標を理解するためには、まず「適合率」と「再現率」という二つの大切な考え方を理解する必要があります。 適合率は、モデルが「正解」と判断したデータのうち、実際にも正解であったデータの割合を示しています。例えば、犬と猫の画像を見分けるモデルがあるとします。このモデルが10枚の画像を「犬」と判断し、そのうち実際に犬の画像は8枚だった場合、適合率は80%となります。つまり、適合率はモデルの予測の確実性を表していると言えます。 一方、再現率は、実際の正解データのうち、モデルがどれだけ正確に「正解」と予測できたかを表す割合です。先ほどの例で言えば、実際に犬の画像は12枚あったとします。そのうちモデルが正しく「犬」と予測できたのは8枚なので、再現率は67%になります。再現率は、モデルが見逃しなく正解データを見つけ出す能力を表していると言えます。 micro-F1スコアは、この適合率と再現率の両方を考慮した指標です。それぞれの指標が突出して高くても、低くても、良いモデルとは言えません。micro-F1スコアは、適合率と再現率の調和を重視し、モデルの総合的な性能を測るために用いられます。
アルゴリズム

ランキング精度を測る指標APとは

- はじめにと題して 現代社会において、インターネット上の膨大な情報の中から必要な情報を探し出すことは、日常生活や仕事の効率に大きく影響します。 例えば、ウェブ検索では、無数のウェブサイトの中から、ユーザーの求める情報を含むページが上位に表示されることが重要です。また、オンラインショップでは、膨大な商品の中から、ユーザーの好みに合った商品が推薦されることで、購買意欲の向上に繋がります。 このように、膨大なデータの中から、ユーザーにとって最適なものを選び出し、提示する技術は、レコメンドシステムなど、様々な場面で活用されています。 これらのシステムでは、単に情報を提示するだけでなく、提示する順番も非常に重要になります。ユーザーは、多くの場合、表示された順番で情報を確認するため、本当に必要としている情報や商品が、後の方に表示されてしまっては、見つけることができずに終わってしまう可能性があります。 そこで、検索結果や推薦アイテムの順番の正確さを評価する指標として、AP(Average Precision) が用いられています。APは、検索結果や推薦リスト全体における適合率を考慮した指標であり、ユーザーにとって、より快適で満足度の高い体験を提供するために重要な役割を担っています。
アルゴリズム

知っておきたい平均の種類: 加重平均とは?

データの代表値としてよく用いられる「平均」ですが、実は計算方法によっていくつかの種類があります。多くの人は「平均」と聞いて、全ての値を足し合わせてその個数で割る方法を思い浮かべるでしょう。これは「算術平均」と呼ばれるもので、平均を求める計算方法としては最も一般的と言えるでしょう。 しかし、平均を求める方法は算術平均以外にも、加重平均、幾何平均、調和平均、トリム平均、移動平均など、様々なものが存在します。これらの平均はそれぞれ異なる特徴を持ち、状況に応じて使い分ける必要があります。 例えば、算術平均は単純に全ての値を平等に扱うのに対し、加重平均は特定の値に重み付けをして平均値を算出します。テストの点数で考えてみましょう。もし、平常点と期末試験の点数を単純に平均したい場合は、算術平均を用います。しかし、「期末試験の点数をより重視して平均点を出したい」といった場合には、期末試験の点数に重み付けをした加重平均を用いることになります。 このように、一口に「平均」と言っても、様々な種類が存在し、それぞれ異なる特徴を持っています。データ分析を行う際には、目的に合った平均値を選択することが重要になります。今回は、数ある平均のうち「加重平均」について、詳しく解説していきます。