top of page
Convisage
本ブログの内容は、あくまで代表 徐勝徹の個人的な見解であり、Projeteam, Inc.の公式見解や業務上の立場を示すものではありません。
検索

論文渉猟


名のない停滞の輪郭――日本型比較が届かない中国不動産危機
シリーズ: 論文渉猟 ◆今回の論文: Kenneth S. Rogoff et al., "A Tale of Two Countries – The Real Estate Crises in 1990s Japan and Contemporary China" (National Bureau of Economic Research, 2026年4月) 概要:1990年代の日本と現在の中国の不動産危機を比較分析。中国の298都市・日本の47都府県の詳細データをもとに、投資・消費・センチメントという三つの「実物チャネル」が金融崩壊なしに長期停滞を引き起こしうることを実証。日本型か米国型かという比較軸を提示しつつ、中国固有の構造的条件——土地財政依存、住宅への資産集中、損失の先送り——が既存の比較枠組みを超えうる可能性を指摘する。 経済危機の物語は、たいてい銀行から始まります。貸し渋り、不良債権、信用収縮——金融システムが詰まることで、経済全体が止まる。そういう図式で、多くの過去の危機は語られてきました。 では、銀行が倒れなかったら、どうなる

Seo Seungchul
4 日前読了時間: 13分


進化は正解を知らない――AIが「試して探す」学習を選ぶとき
シリーズ: 論文渉猟 ◆今回の論文: Bidipta Sarkar et al., "Evolution Strategies at the Hyperscale" (arXiv, 2025年11月20日) 概要:大規模なニューラルネットワークに対して、誤差逆伝播(バックプロパゲーション)を使わない学習アルゴリズム「EGGROLL」を提案。生物の進化を模した「進化戦略」を、低ランク近似という数学的工夫によって効率化し、10億パラメータ規模のモデルで約100倍のスループット向上を達成。強化学習・言語モデルの推論改善・整数演算のみによる事前学習の3領域で有効性を実証した。 AIが「賢くなる」仕組みとして、いま主流なのは誤差逆伝播法(バックプロパゲーション)と呼ばれる手法です。正解と照らし合わせて「どこがどれだけ間違っていたか」を計算し、それを手がかりにパラメータを少しずつ修正していく。現代の大規模言語モデルはほぼすべて、この方法で訓練されています。 ところが、2025年11月に公開されたオックスフォード大学とモントリオール人工知能研究所(MILA)の

Seo Seungchul
7 日前読了時間: 13分


賢さは量じゃなく、つながりで決まる――折り畳まれた思考の話
シリーズ: 論文渉猟 ◆今回の論文: Qiguang Chen et al., "The Molecular Structure of Thought: Mapping the Topology of Long Chain-of-Thought Reasoning" (arXiv, 2026年1月9日) 概要:大規模言語モデル(LLM)が長い推論の連鎖を人間の例示や非推論モデルから学べない理由を探った論文。効果的な推論軌跡は「分子構造」のような安定したトポロジーを持ち、「深い推論(共有結合的)」「自己反省(水素結合的)」「自己探索(ファンデルワールス力的)」という3種の"論理的結合"から構成されると提唱。表面的なキーワードの模倣では構造は転写されないことを示し、構造合成を誘導する手法(Mole-Syn)を提案した。 AIは、なぜ人間の「考え方」をそのまま真似しても賢くなれないのでしょうか。 最新の研究は、少し意外な場所からその答えを探しました。分子化学です。水分子がH₂Oという「形」を持つように、高度な推論にも安定した構造があるのではないか——そ

Seo Seungchul
4月30日読了時間: 12分


あなたが書いたはずの文章が、あなたから離れていく――AIに均される声
シリーズ: 論文渉猟 ◆今回の論文:Marwa Abdulhai et al., "How LLMs Distort Our Written Language" (arXiv, 2026年3月18日) 概要:大規模言語モデル(LLM)が人間の文章をどう変えるかを三つの方法で検証した研究。①100人を対象にAI使用群・非使用群に分けた実験、②2021年に収集された86本の学生小論文データセットを使ったAI編集の比較分析、③機械学習系国際会議ICLRの査読文書分析。主な発見として、AIを多用した参加者の小論文では「中立的立場」が約69%増加し、文法のみの修正を指示した場合でも文章の意味が大きく変化することが示された。また、学術査読においてAI生成の文書は「明確さ・重要性」よりも「再現性・スケーラビリティ」を重視する傾向があることが確認された。 AIに文章を直してもらったことがありますか? 誤字を修正してほしい、流れをよくしてほしい、そういうつもりで頼んだはずなのに、返ってきた文章がなんとなく違う——そう感じたことがある人は少なくないかもしれません。.

Seo Seungchul
4月29日読了時間: 11分


場所は、移動によって問われる――根付きと流れのネクサス
シリーズ: 論文渉猟 ◆今回の論文: Iga Kołodynska et al., "Senses of place and mobilities nexus - a scoping literature review" (Journal of Environmental Psychology, 2025年8月) 概要: 「場所の感覚(senses of place)」と「移動性(mobilities)」の相互関係を主題とするスコーピング・レビュー論文。163本の実証研究を体系的に分析し、両者の接続を研究するための分析フレームワークを構築。知識ギャップと今後の研究方向を提示する。 人は場所に意味や愛着を感じたりします。でもそれが意識にのぼるのは、たいてい、その場所を離れるときか、失われるときです。気候変動で沿岸の村が沈もうとしているとき、再開発で育った街が壊されるとき、移住先でふと故郷の木の匂いを思い出すとき。「場所の感覚(senses of place)」という研究領域が急速に主題化してきたのは、場所が当たり前でなくなった時代と重なっています。

Seo Seungchul
4月13日読了時間: 16分


「考えすぎ」ないAI――「ファスト思考とスロー思考」を自分で使い分けるAIエージェントの登場
シリーズ: 論文渉猟 ◆今回の論文: Ruihan Yang et al., " Think Fast and Slow: Step-Level Cognitive Depth Adaptation for LLM Agents " (arXiv, 2026年2月13日) 概要: 言語モデルのみに依存する基盤モデルの限界を指摘し、映像・画像・動画を統合した多モーダル事前学習の設計空間を体系的に検証した論文。視覚と言語データは互いに補完し合い、かつ単一の表現エンコーダーで視覚の理解と生成の両方をこなせることを示した。また、大規模な映像データから一般的な学習を行うだけで「世界モデル」的な能力が自然に創発することも報告。 AIが「状況に応じて考えの深さを自分で変える」——そんな研究が登場しました。人間だって、友人へのメッセージを送るときと、大事な契約書を読み込むときでは、頭の使い方がまったく違うはずです。でも今のAIは、どんな問いに対してもほぼ同じ深さで思考していました。簡単な一歩には直感で十分なのに、毎回じっくり考え込んでしまう——まるで、コンビニ

Seo Seungchul
4月12日読了時間: 13分


AIは「影」しか見ていなかった――言語の限界と、映像が拓く新しい知性のかたち
シリーズ: 論文渉猟 ◆今回の論文: Shengbang Tong et al., " Beyond Language Modeling: An Exploration of Multimodal Pretraining " (arXiv, 2026年3月3日) 概要: 言語モデルのみに依存する基盤モデルの限界を指摘し、映像・画像・動画を統合した多モーダル事前学習の設計空間を体系的に検証した論文。視覚と言語データは互いに補完し合い、かつ単一の表現エンコーダーで視覚の理解と生成の両方をこなせることを示した。また、大規模な映像データから一般的な学習を行うだけで「世界モデル」的な能力が自然に創発することも報告。 言語だけで世界を学んできたAIは、本当に「世界を知っている」と言えるのでしょうか。 2000年以上前、プラトンは洞窟の壁に映る影しか見たことのない囚人たちのことを書きました。大規模な言語モデルの登場からしばらく経った今、あの比喩がこれほどリアルに響いてくるとは思いもしませんでした。テキストは現実の「lossy compression(非可逆圧

Seo Seungchul
4月11日読了時間: 15分


遠くの選挙に怒れる時代――民主主義の「器」が、世界に合わなくなっている
シリーズ: 論文渉猟 ◆今回の論文: Nicholas Kuipers, "Pluralism, Polarization, and Political Voyeurism" (Journal of Democracy, 2026年4月) 概要: インドネシアを主な事例として、地方分権(権限を中央政府から地方に移すガバナンス改革)がSNS時代においてむしろ政治的分極化を加速するという逆説を論じた論文。2017年のジャカルタ州知事アホック冒涜罪事件を起点に、「政治的覗き見」という新しい概念を定式化し、調査データによって実証する。透明性のパラドックスや地方メディアの衰退にも触れ、技術的政策の限界を認めつつ、思想的・認識的な転換の必要性を示唆して終わる。 SNSを開くと、遠くの街で起きた政治的な出来事が、まるで隣の話のように飛び込んでくる。自分とは関係のない選挙区の候補者に怒りを感じたり、何千キロも離れた地域の法律に「許せない」と思ったりすることが、今はごく自然に起きています。 ある政治学者は、これを「政治的覗き見」と呼びます。本来、他の地域の政治に

Seo Seungchul
4月9日読了時間: 14分


「来たくなる場所」を設計する――街の未来は、数ブロックの差で分かれる
シリーズ: 論文渉猟 ◆今回の論文: Richard Florida, Masaki Hamura, et al., "The Rise of the Urban Knowledge Campus" (Harvard Business Review, 2026年5-6月) 概要: 1,200名の知識労働者への調査と世界13都市39地区の分析をもとに、「知識キャンパス」という新しい企業立地モデルを提唱。通勤・生活摩擦の削減、用途の複合化、交通ハブとの統合が、仕事と生活の生産性を同時に高めるという実証的知見を示す。東京の六本木・渋谷を世界最高水準の事例として詳細に分析し、企業の立地判断を「コスト」ではなく「場所の収益性(Return on Place)」で評価する新たな枠組みを提案する。 コロナ禍が明けたとき、「オフィスはもう要らない」という声は確かにありました。でも実際には、オフィスは消えなかった。それどころか、ニューヨークでもロンドンでも東京でも、かつてないスケールで「作り直され」ています。 ハーバード・ビジネス・レビューに掲載されたこの論文は

Seo Seungchul
4月7日読了時間: 16分


AIが仕事をこなすほど、社会は空っぽになっていく?――「実行」と「検証」の非対称な未来
シリーズ: 論文渉猟 ◆今回の論文: Christian Catalini et al., "Some Simple Economics of AGI" (arXiv, 2026年2月24日) 概要: AGI(汎用人工知能)への移行を「自動化コスト」と「検証コスト」という二本の曲線の衝突として捉え、経済・労働・ガバナンスへの影響を分析した112ページの経済理論論文。「測定可能性ギャップ」「若手ループの消失」「コード化者の呪い」「空洞経済 vs 拡張経済」などの概念を提示しながら、個人・企業・社会が取るべき戦略を論じる。 AIはこれほど賢くなったのに、なぜ社会は豊かになっている実感が薄いのでしょうか。 MITとワシントン大学・UCバークレーの経済学者たちが2026年2月に発表した論文は、その問いに対して、意外なほどシンプルな答えを提示しています。AIが「やること」のコストはほぼゼロに向かっている。でも、それが「正しいか」を確かめる人間のコストは、生物学的な壁に阻まれて、まったく下がっていない——この非対称性こそが、私たちの社会を静かに、しかし構造

Seo Seungchul
4月6日読了時間: 13分


「答え合わせ」より「考え方」を学ぶAI――知識グラフが報酬の採点者になるとき
シリーズ: 論文渉猟 ◆今回の論文: Yuval Kansal et al., " Knowledge Graphs are Implicit Reward Models: Path-Derived Signals Enable Compositional Reasoning " (arXiv, 2026年1月21日) 概要: 大規模言語モデルの多段階推論能力の限界に注目し、「統一医学言語システム(UMLS)」という医療知識グラフを暗黙の報酬モデルとして活用する訓練手法を提案。教師あり微調整と強化学習を組み合わせたパイプラインで、1〜3ホップの短い推論で訓練した140億パラメータのモデルが4〜5ホップの未知の複雑な問いに汎化でき、より大規模なモデルを凌駕することを示した。 「ChatGPTって数学の問題は解けるのに、なんか医療の専門的な話になると急に怪しくなるよね」——そんな印象を持ったことはありませんか。実はこれ、個別の感想にとどまらない、AI研究が真剣に取り組んでいる構造的な問題です。 2026年1月にプリンストン大学から発表された論文は、

Seo Seungchul
4月1日読了時間: 14分


「なんとなく冷たい」が、じわじわ職場を壊す――無礼の連鎖と、礼節の再設計
シリーズ: 論文渉猟 ◆今回の論文: Vicki J. Magley et al., "Workplace Incivility" (Annual Review of Organizational Psychology and Organizational Behavior, 2026年1月) 概要: 職場における無礼(インシビリティ)について、定義・測定・影響・文化差・介入策にわたる包括的なレビュー。メタ分析を含む膨大な先行研究を整理し、理論的進展と実践的示唆を提示した査読論文。 職場で「なんとなく居心地が悪い」と感じたことはないでしょうか。悪意があるわけではないけれど、微妙に無視される、会議で話を遮られる、メールの返信がそっけない——そういう経験です。 こうした「ちょっとした無礼」は、軽微すぎて問題として扱われないことがほとんどです。 ところが最新の研究によると、職場で働く人の75%がこれを経験しており、世界全体での生産性損失は年間約1.76兆ドルにのぼると推計されています。 職場の無礼(ワークプレイス・インシビリティ)をめぐる研究が、過去

Seo Seungchul
3月23日読了時間: 11分


AIは「ひとりで議論」できるようになるのか――集合知を個の中に宿す試み
シリーズ: 論文渉猟 ◆今回の論文: Yinyi Luo et al., "AgentArk: Distilling Multi-Agent Intelligence into a Single LLM Agent" (arXiv, 2026年2月3日) 概要: マルチエージェントシステム(複数のAIが議論・批判し合う仕組み)の推論能力を、単一モデルの重みに蒸留する手法「AgentArk」を提案。3段階の蒸留戦略を設計・比較し、単一エージェントの推論性能を平均4.8%改善しながら、マルチエージェントに比べて大幅にコストを削減できることを示した。 「頭のいい人が集まれば、もっといい答えが出る」——これは人間社会の長年の経験則ですが、AIの世界でも似たような発想が広がっています。複数のAIエージェントに互いに議論させることで、ひとつのモデルよりずっと賢い判断ができる、というアプローチです。でも当然、それにはコストがかかります。 では逆に、「集まって議論したときの知恵のかたち」を、あらかじめひとつのAIに染み込ませてしまうことはできないでしょうか。2

Seo Seungchul
3月21日読了時間: 10分


半分捨てたら、むしろうまくいった――AIの学習を「あえて乱す」という逆転の発想
シリーズ: 論文渉猟 ◆今回の論文: Taejong Joo et al., "On Surprising Effectiveness of Masking Updates in Adaptive Optimizers" (arXiv, 2026年2月17日) 概要: 大規模言語モデル(LLM)の学習において、パラメータ更新をランダムにマスク(省略)することが高い効果を発揮することを示した研究。ランダムマスクがもたらす「曲率依存の幾何学的正則化」という理論的な説明を与えつつ、そこからさらにモメンタムと勾配の方向整合性を利用した「Magma」を提案。1Bパラメータ規模のモデルでAdamと比較して約19%、Muonと比較して約9%の性能改善(perplexity削減)を達成した。 大きなAIモデルを訓練するとき、計算リソースは惜しみなく使うのが当然だと思われています。勾配(こうばい)と呼ばれる学習の手がかりは、せっかく計算したのだから全部使う。それが常識でした。 ところが最近、その前提を揺るがすような研究が登場しました。パラメータの更新をランダムに

Seo Seungchul
3月16日読了時間: 12分


民主主義は「期待に応える」のか?──数字で見る、その実力と限界
シリーズ: 論文渉猟 ◆今回の論文: Maya Tudor, "What Democracy Does . . . And Does Not Do" (Journal of Democracy, 2025年10月) 概要: 民主主義が健康、教育、平和、経済成長といった社会的成果において実際に何を達成し、何を達成しないのかを、50以上の査読付き研究を基に実証的に検証した論文。民主主義の平均的なパフォーマンスは権威主義体制を上回るものの、その優位性は「劇的」ではなく「安定的」であることを示す。 民主主義への幻滅が広がっています。「強いリーダーシップがあれば、もっと成長できるのに」「選挙なんかやってる場合じゃない」——そんな声が、世界のあちこちで聞こえてきます。実際、急成長を遂げた権威主義国家の存在は、民主主義の「有用性」そのものに疑問を投げかけているようにも見えます。 では、民主主義は本当に「役に立たない」のでしょうか。オックスフォード大学のMaya Tudor教授は、この問いに正面から向き合いました。寿命、教育、平和、経済成長——これら人々が政府

Seo Seungchul
3月15日読了時間: 15分


AIは「ペーパークリップ・マキシマイザー」になるのか、それとも単なる「ドジっ子」なのか?──知能と一貫性のパラドックス
シリーズ: 論文渉猟 ◆今回の論文: Alexander Hägele et al., "The Hot Mess of AI: How Does Misalignment Scale With Model Intelligence and Task Complexity?" (arXiv, 2026年1月30日) 概要: AIモデルの誤りをバイアス(系統的誤り)とバリアンス(非一貫的誤り)に分解し、モデルの知能とタスクの複雑さに応じて「非一貫性(incoherence)」がどう変化するかを測定。フロンティアモデル(Claude Sonnet 4、o3-mini、o4-mini、Qwen3)を用いた実験の結果、推論が長くなるほど、またタスクが難しくなるほど、失敗が非一貫的になる傾向を発見。これは将来のAI失敗が「整列された危険な目標の追求」より「産業事故」に近い形態を取る可能性を示唆する。 AIが人間を超える知能を持ったとき、私たちは何を恐れるべきなのでしょうか。SF映画でよく描かれるのは、冷徹な計算に基づいて人類を脅かす超知性AIです。しかし

Seo Seungchul
3月14日読了時間: 15分


AIが「完全に」書いたディープラーニング基盤ソフト──VibeTensorが示す開発の未来
シリーズ: 論文渉猟 ◆今回の論文: Bing Xu et al., " VibeTensor: System Software for Deep Learning, Fully Generated by AI Agents " (arXiv, 2026年1月21日) 概要: VibeTensorは、大規模言語モデルを活用したAIエージェントによって生成された、オープンソースの深層学習システムソフトウェアです。PyTorchスタイルのテンソルライブラリをC++20で実装し、Python/Node.jsのフロントエンドからCUDAメモリ管理まで、一貫したランタイムを提供します。人間は高水準の設計指針のみを与え、コードの生成と検証はエージェントが自律的に行いました。NVIDIA H100およびBlackwell世代のGPUで動作検証が行われ、小規模な学習タスク(系列反転、CIFAR-10、ミニGPT)でエンドツーエンドの学習が完了しています。研究チームはこれをAI支援ソフトウェア工学における一つの里程標と位置づけています。 プログラマーがコードを書

Seo Seungchul
3月4日読了時間: 16分


AIはパラメータを変えずに賢くなれるのか?──強化学習の常識を覆す新アプローチ
シリーズ: 論文渉猟 ◆今回の論文: Yuzheng Cai et al., "Training-Free Group Relative Policy Optimization" (arXiv, 2025年10月9日) 概要: 大規模言語モデル(LLM)エージェントの性能向上には通常、コストのかかるパラメータ更新が必要とされる。本研究では、パラメータを一切変更せずにGRPO(Group Relative Policy Optimization)と同等の効果を得る「Training-Free GRPO」を提案。複数の出力を比較して「意味的な優位性」を自然言語の経験として抽出し、それをプロンプトに組み込むことで、数学的推論やウェブ検索タスクにおいて、従来の強化学習手法を大幅に下回るコストで同等以上の性能を達成した。 AIを賢くするには、膨大なデータで「再訓練」するしかない——そう思っていませんか。大規模言語モデル(LLM)の性能を高めるために、研究者たちは何千時間もGPUを回し、何万ドルものコストをかけて「パラメータ」と呼ばれるモデル内部の数値を調

Seo Seungchul
3月2日読了時間: 10分


AIと人間が「難問」を解くとき──Co-FunSearchが切り拓く協働の新地平
シリーズ: 論文渉猟 ◆今回の論文: Henri Nikoleit et al., "The Art of Being Difficult: Combining Human and AI Strengths to Find Adversarial Instances for Heuristics" (arXiv, 2026年1月23日) 概要: 本論文は、大規模言語モデル(LLM)を用いたFunSearchアルゴリズムと人間の専門家の協働によって、組合せ最適化問題のヒューリスティクス(近似解法)に対する「敵対的事例」を生成する手法「Co-FunSearch」を提案。ナップサック問題、ビンパッキング問題、階層的クラスタリング、ガソリン問題という4つの古典的問題において、10年以上更新されていなかった理論的下限を改善することに成功した。 「AIがついに数学上の難問を解いてみせた」——そんな見出しをニュースで目にすることが増えました。でも、実際のところどうなのでしょうか。AIは本当に「考えて」いるのか、それとも単にパターンを当てはめているだけなのか。

Seo Seungchul
2月25日読了時間: 13分


脳は「全部見ていない」のにうまくいく──「ジャストインタイム」で世界を理解する人間の認知戦略
シリーズ: 論文渉猟 ◆今回の論文: Tony Chen et al., "' Just in Time' World Modeling Supports Human Planning and Reasoning " (arXiv, 2026年1月20日) 概要: 確率的なメンタルシミュレーションは人間の推論・計画・予測において重要な役割を果たすとされるが、複雑な環境でのシミュレーションは人間の認知容量の限界を超える要求を課す。本論文では、シミュレーション、視覚探索、表象の更新を緊密に連携させる「ジャストインタイム(JIT)」フレームワークを提案。このモデルは、オブジェクトのごく一部しか符号化しないにもかかわらず、高い有用性を持つ予測を実現する。グリッドワールドのナビゲーション課題と物理的推論課題において、複数の行動指標でJITモデルが人間の行動をよく説明することを示した。 私たちは日常的に、複雑な環境の中で計画を立て、予測し、行動しています。たとえば、雑然としたリビングを横切ってソファまで歩くとき、落ちているおもちゃを避け、テーブルの角に注意

Seo Seungchul
2月23日読了時間: 15分
bottom of page