# ヴィタリック・ブテリンがコミュニティの質問に回答ヴィタリック・ブテリンは最近、コミュニティからの一連の質問に答え、個人的な興味、イーサリアムの発展、人工知能などの多くのトピックに関わりました。以下は主な内容の要約です:## 個人的な趣味ヴィタリックは、自分が最も好きな本は『ハリー・ポッターと理性の道』と『Unsong』だと述べています。彼の最長のランニング記録は44キロで、時間は4時間です; 歩行の最長記録は113キロで、時間は23時間12分です。散歩中はダン・カリンの歴史ポッドキャストを聴くのが好きです。! [](https://img-cdn.gateio.im/social/moments-a10d79d68f50f959263d9bdac276da5f)## イーサリアムに対する見解ヴィタリックは、イーサリアムコミュニティが非技術的、過度に自信を持った、攻撃的なこの3つの特質の絡み合いに警戒すべきだと考えています。彼は、選択的な作業の全過程を特定し報酬を与えるためのより良い追跡可能な資金配分メカニズムが見られることを望んでいます。L2ガバナンスについて、VitalikはEthereum内部でZK-EVM検証を実現し、L1の固定度を最小限に抑えることを好んでいます。彼は今後数年以内に、安全委員会が2つの異なる証明システムで意見の相違が生じた場合にのみ裁定を行うことを望んでいます。! [](https://img-cdn.gateio.im/social/moments-b9e206b101b0d9c96d2183b221b2564a)## 人工知能に対する考えヴィタリックは、AGI(人工一般知能)の実現が2029年から2200年の間に行われると予想しています。彼は、人工知能が引き起こす災害の確率は約0.1であり、AIリスクを真剣に考える必要があると考えています。もしAIが複雑な環境で他の知的存在と相互作用し、新しい行動計画を立て始めた場合、それはスーパーインテリジェンスが非常に近づいていることを示しています。! [](https://img-cdn.gateio.im/social/moments-d437645781d4dac76b22aff4ffc9ca3c)## その他の見解- 暗号通貨に友好的な国々について、ヴィタリックは小国をより好む。- 彼は、軍が他の人々よりも信頼できるAI規制プランであるという仮定に反対しています。- ブロックチェーンは量子コンピュータに適応する必要がありますが、挑戦を克服することができます。- MPCに基づく外部アカウントには、取り消し不可能なキーの根本的な欠陥があります。スマートコントラクトウォレットはより良い選択です。- 社会主義において、私的独占と資源の不平等の危険に注意を払うことは重要です。- イーサリアムとビットコインコミュニティの関係を促進する潜在的な分野は、非ブロックチェーンの自由とプライバシーツールを共同で支持することです。! [](https://img-cdn.gateio.im/social/moments-277657d075541b627d68fa72380079e9)! [](https://img-cdn.gateio.im/social/moments-7cf429d6bb08c96154e23723890ce7b6)
ヴィタリック・ブテリンが語るイーサリアムの発展、AIリスクと個人の興味
ヴィタリック・ブテリンがコミュニティの質問に回答
ヴィタリック・ブテリンは最近、コミュニティからの一連の質問に答え、個人的な興味、イーサリアムの発展、人工知能などの多くのトピックに関わりました。以下は主な内容の要約です:
個人的な趣味
ヴィタリックは、自分が最も好きな本は『ハリー・ポッターと理性の道』と『Unsong』だと述べています。彼の最長のランニング記録は44キロで、時間は4時間です; 歩行の最長記録は113キロで、時間は23時間12分です。散歩中はダン・カリンの歴史ポッドキャストを聴くのが好きです。
!
イーサリアムに対する見解
ヴィタリックは、イーサリアムコミュニティが非技術的、過度に自信を持った、攻撃的なこの3つの特質の絡み合いに警戒すべきだと考えています。彼は、選択的な作業の全過程を特定し報酬を与えるためのより良い追跡可能な資金配分メカニズムが見られることを望んでいます。
L2ガバナンスについて、VitalikはEthereum内部でZK-EVM検証を実現し、L1の固定度を最小限に抑えることを好んでいます。彼は今後数年以内に、安全委員会が2つの異なる証明システムで意見の相違が生じた場合にのみ裁定を行うことを望んでいます。
!
人工知能に対する考え
ヴィタリックは、AGI(人工一般知能)の実現が2029年から2200年の間に行われると予想しています。彼は、人工知能が引き起こす災害の確率は約0.1であり、AIリスクを真剣に考える必要があると考えています。もしAIが複雑な環境で他の知的存在と相互作用し、新しい行動計画を立て始めた場合、それはスーパーインテリジェンスが非常に近づいていることを示しています。
!
その他の見解
!
!