ミラノ・コルティナ2026、AIリプレイとクラウド中継で「観戦の見え方」が変わる
2026年のミラノ・コルティナ冬季オリンピックでは、ジャンプの着地やスケートの大技が、数十秒以内に3Dで“立体再現”されるなど、AIとクラウド技術が中継の作り方と見方を大きく変えそうです。
数秒で3D化する「360度リプレイ」──雪・氷の背景でも選手を切り分け
大会の国際映像を担うOlympic Broadcasting Services(OBS)と国際オリンピック委員会(IOC)は、AIを活用した新しいリプレイ/中継システムの展開を計画しています。クラウドとAIの基盤はアリババが提供し、制作現場はよりクラウドネイティブ(最初からクラウド前提)へ移行します。
中心となるのは、リアルタイムの360度リプレイの強化版です。AIが、雪面や氷上など視覚的に複雑な背景から選手を分離し、およそ15〜20秒で没入感のある3Dリプレイを生成できるとされています。ライブ放送のテンポを崩さずに「今の一瞬」を別角度で見せられる、という狙いです。
新機能「Spacetime Slices」:動きの“要点”を1枚に束ねる
さらに「Spacetime Slices」と呼ばれる新機能では、選手の動作の複数の瞬間を1つのビジュアルに重ね、フォームやタイミングの違いが一目でわかるようにします。シーンを“ただ巻き戻す”のではなく、技術やパフォーマンスを理解しやすくする方向に中継表現が寄っていくのが特徴です。
このリプレイ技術は、17の冬季競技で使われる見込みとされています。
映像制作の裏側もAIで変化:自動タグ付けで「探せる中継」へ
視聴者が見る画面だけでなく、制作現場のワークフローも変わります。OBSは、映像の内容を自動で説明する仕組み(自動メディア記述)を開発中で、選手や重要場面を認識し、動画にタグ付け・要約をほぼ即時で行うといいます。
これにより放送局側は、何時間分もの素材を人手で探すのではなく、たとえば次のように自然な文章で検索できるようになります。
- 「あの競技のメダル獲得シーン」
- 「特定選手の決定的な滑走」
中継の“編集の速さ”が、現場の人数や経験に依存しにくくなる可能性があります。
クラウド中継が「実験」から「中核」に:40近い放送局へ多数のフィード
ミラノ・コルティナ2026では、クラウドを使った配信基盤も一段と拡大します。クラウド中継は東京大会での試行を経て、今回はオリンピックの配信・分配の中核として位置づけられています。
クラウドのプラットフォームから、数百のライブ映像・音声フィードが、約40の放送局に届けられる計画です。衛星回線への依存を減らし、技術面のハードルを下げることで、規模の小さいメディアでも同じ素材にアクセスしやすくなる、とされています。
IOCは大規模言語モデル(LLM)も活用へ:多言語チャットとアーカイブ検索
今大会は、IOCが大規模言語モデル(LLM)を使ったツールを、ファン向けと内部業務の両面で初めて導入する場にもなるといいます。多言語のチャットアシスタントや、オリンピックのアーカイブを対象にしたAI検索などが想定されています。
アーカイブは8ペタバイト超の歴史的メディアに及ぶとされ、膨大な過去映像を「見つけられる形」に整えること自体が、大会の価値を広げる基盤になりそうです。
「すごい瞬間」を残すだけでなく、理解しやすくするテクノロジー
AIとクラウドの導入は、制作効率の改善にとどまらず、視聴者にとっては競技の“理解の補助線”が増える変化でもあります。フォームの違いが可視化され、検索しやすく編集しやすい素材が増えるほど、競技は「結果」だけでなく「過程」ごと共有されていきます。
ミラノ・コルティナ2026で、私たちが目にするのはメダルの色だけではなく、勝敗を分けた一瞬の“形”そのものになるのかもしれません。
Reference(s):
AI replays, cloud broadcast to shape how we watch Milano Cortina 2026
cgtn.com








