コンテンツへスキップ

Chiilabo Note

  • /series
    • /print
    • /scheduled
    • /recorded
    • /dev
  • /app
  • /root

Xavier初期化

生成AIの中の「混沌」(Transformer)

2026-03-062026-03-05 by chiilabo
#生成AI(59) #機械学習(21) #大規模言語モデル(16) #自然言語処理(16) #ハルシネーション(15)
カテゴリー 記事 タグ Attention Is All You Need、He初期化、RAG、softmax、Transformer、Xavier初期化、アテンション機構、エントロピー、コード生成、スーパーポジション、トークン予測、ニューラルネットワーク、パラメータ、ハルシネーション、ファインチューニング、ポリセマンティシティ、モノセマンティック、ロジット、内部表現、制御可能性、勾配消失、大規模言語モデル、機械学習、生成AI、確率的勾配降下法、確率的生成、脚注、自然言語処理、解釈可能性、重み初期化
© 2026 Chiilabo Note • Built with GeneratePress