コンテンツへスキップ

Chiilabo Note

  • /print
    • /series
    • /dev
    • /recorded
    • /scheduled
  • /app
  • /root

Transformer

AIエージェントが苦手とするコード構造 – 人間向け設計とAI向け設計の違い

2025-06-08 by chiilabo
#プログラミング(17) #機械学習(14) #自動化(9) #ファイル分割(6) #依存関係(6)
カテゴリー 記事 タグ Agentic Coding、AIエージェント、AI開発、AutoGen、Cline、CrewAI、Cursor、Devin AI、GitHub Copilot、LangChain、LLM、repomix、Transformer、コード構造、コンテキストウィンドウ、トークン、トークン消費、ファイル分割、フォルダ構成、プログラミング、メモリ消費、依存関係、処理速度、性能低下、機械学習、注意機構、深層学習、生成品質、自動化、計算コスト

トランスフォームとは何なのか?生成AIから逆照射した知性と存在

2025-04-272025-04-27 by chiilabo
#生成AI(16) #知性(4) #Transformer(2) #シニフィアン(2) #シニフィエ(2)
カテゴリー 記事 タグ Attention、Transformer、シニフィアン、シニフィエ、ソシュール、トランスフォーム、フーリエ変換、プラトン的実在論、ベクトル表現、公理、写像、創発的知性、変換プロセス、定理、形式主義、心理的実在、心身問題、恣意性、意味空間、意識、数学的変換、構成主義、注意機構、物理的存在、生成AI、知性、線形代数、言語記号、記号学、関数
© 2025 Chiilabo Note • Built with GeneratePress