top of page
Convisage
本ブログの内容は、あくまで代表 徐勝徹の個人的な見解であり、Projeteam, Inc.の公式見解や業務上の立場を示すものではありません。
検索
All Posts


AIはパラメータを変えずに賢くなれるのか?──強化学習の常識を覆す新アプローチ
シリーズ: 論文渉猟 ◆今回の論文: Yuzheng Cai et al., "Training-Free Group Relative Policy Optimization" (arXiv, 2025年10月9日) 概要: 大規模言語モデル(LLM)エージェントの性能向上には通常、コストのかかるパラメータ更新が必要とされる。本研究では、パラメータを一切変更せずにGRPO(Group Relative Policy Optimization)と同等の効果を得る「Training-Free GRPO」を提案。複数の出力を比較して「意味的な優位性」を自然言語の経験として抽出し、それをプロンプトに組み込むことで、数学的推論やウェブ検索タスクにおいて、従来の強化学習手法を大幅に下回るコストで同等以上の性能を達成した。 AIを賢くするには、膨大なデータで「再訓練」するしかない——そう思っていませんか。大規模言語モデル(LLM)の性能を高めるために、研究者たちは何千時間もGPUを回し、何万ドルものコストをかけて「パラメータ」と呼ばれるモデル内部の数値を調

Seo Seungchul
3月2日読了時間: 10分


実はいちばんリスキーなのが、「投資しない」という選択かもしれない
シリーズ: 行雲流水 投資と聞くと、株価の上下に一喜一憂したり、仮想通貨で一攫千金を狙ったりするイメージが浮かぶかもしれません。「自分には関係ない」「リスクが怖い」と距離を置いている人も多いでしょう。でも、ちょっと立ち止まって考えてみてください。銀行口座に眠っているお金は、本当に「安全」なのでしょうか。 今回、富良野とPhronaが語り合うのは、投資の根本にある考え方についてです。利殖や資産運用のテクニックではなく、もっと手前にある問い——私たちが「価値」だと思っているものは、実は何なのか。円やドルという「物差し」自体が揺れ動いているとしたら、何もしないことの意味も変わってくるはずです。 富良野とPhronaの二人の対話を通じて見えてくるのは、投資が「お金持ちの趣味」ではなく「防衛のためのインフラ」だという視点。そして、元手の大きさによって戦略がまったく変わるという現実です。 円は「物差し」じゃなくて「商品」 富良野: 投資の話をすると、だいたい「どの株を買えばいいですか」みたいなところから始まりがちなんですけど、僕はもっと手前のところが気になっ

Seo Seungchul
3月2日読了時間: 10分


「知らないことを知らない」ままで、なぜ人は自信満々でいられるのか
シリーズ: 知新察来 ◆今回のピックアップ記事: Hunter Gehlbach et al., " The illusion of information adequacy " ( PLOS One , 2024年10月9日) 概要:人々が自分の持つ情報が十分かどうかを疑わず、不完全な情報に基づいて自信を持って判断を下す傾向を「情報十分性の錯覚」と名付け、実験的に検証した研究。1,261人の参加者を対象に、学校統合の架空シナリオを用いて、半分の情報しか持たない人々が全情報を持つ人々と同等に「情報は十分」と感じ、むしろより強い自信を示すことを明らかにした。 交差点で前の車がなかなか発進しない。イライラしてクラクションを鳴らそうとした瞬間、ベビーカーを押す親子が横断歩道を渡っていくのが見えた——。自分が見えていなかっただけで、前の車には動けない理由があったのです。 私たちは日常的に、自分が「十分な情報を持っている」と思い込んで判断を下しています。ソクラテスの「無知の知」やラムズフェルド元国防長官の「知らないことすら知らないこと」という言葉は、この

Seo Seungchul
3月2日読了時間: 10分


AIと人間が「難問」を解くとき──Co-FunSearchが切り拓く協働の新地平
シリーズ: 論文渉猟 ◆今回の論文: Henri Nikoleit et al., "The Art of Being Difficult: Combining Human and AI Strengths to Find Adversarial Instances for Heuristics" (arXiv, 2026年1月23日) 概要: 本論文は、大規模言語モデル(LLM)を用いたFunSearchアルゴリズムと人間の専門家の協働によって、組合せ最適化問題のヒューリスティクス(近似解法)に対する「敵対的事例」を生成する手法「Co-FunSearch」を提案。ナップサック問題、ビンパッキング問題、階層的クラスタリング、ガソリン問題という4つの古典的問題において、10年以上更新されていなかった理論的下限を改善することに成功した。 「AIがついに数学上の難問を解いてみせた」——そんな見出しをニュースで目にすることが増えました。でも、実際のところどうなのでしょうか。AIは本当に「考えて」いるのか、それとも単にパターンを当てはめているだけなのか。

Seo Seungchul
2月25日読了時間: 13分
bottom of page