自选
我的自选
查看全部
市值 价格 24h%

大V推荐

更多

最近活跃

$X

  • X
  • $0.00001766
  • 0.27%(7d)
最新 最热

vitalik.eth

@VitalikButerin · 6 小时前

我选择平衡。第一级的平衡。 mi pinxe lo crino tcati slatestarcodex.com/2018/09/12/in-…

vitalik.eth

vitalik.eth

@VitalikButerin · 6 小时前

我选择平衡。第一级的平衡。 mi pinxe lo crino tcati slatestarcodex.com/2018/09/12/in-…

@VitalikButerin · 6 小时前
"AI becomes the government" 是反乌托邦的:当AI弱时会导致混乱,而一旦AI强大则会最大化灾难。但如果善用AI,它可以赋能,并推动民主/去中心化治理模式的前沿。

民主/去中心化治理模式(包括以太坊上的DAO)的核心问题是人类注意力的限制:需要做出成千上万的决定,涉及多个专业领域,大多数人甚至没有时间或技能成为一个领域的专家,更不用说所有领域。通常的解决方案——委托——是削弱权力的:它导致一小群代表控制决策,而他们的支持者在点击“委托”按钮后完全失去影响力。那么我们该怎么办?我们使用个人LLM来解决注意力问题!以下是一些想法:

## Personal governance agents

如果治理机制依赖于你做出大量决策,个人代理可以根据从你的个人写作、对话历史、直接声明等推断出的偏好,为你执行所有必要的投票。

如果代理(i)不确定你在某个问题上的投票立场,且(ii)认为该问题很重要,那么它应该直接询问你,并提供所有相关背景。

## Public conversation agents

好的决策往往不能来自仅基于个人信息的线性过程,并对这些观点进行平均(即使是二次平均)。需要一种过程来汇总多人的信息,然后给每个人(或他们的LLM)一个机会基于此进行回应。

这包括:

* 推断并总结你自己的观点,并将其转换为可以公开分享的格式(且不暴露你的私人信息)
* 总结人们输入之间的共同点(以文字表达),类似于各种LLM+的想法

## Suggestion markets

如果治理机制重视任何类型的“高质量输入”(可能是提案,甚至可能是论点),那么你可以建立一个预测市场,任何人都可以提交输入,AI可以押注代表该输入的代币,如果机制“接受”输入(无论是接受提案,还是将其作为对话的“单元”传递给参与者),它会向代币持有者支付$X

注意,这基本上与

## Decentralized governance with private information

高度去中心化/民主治理的最大弱点之一是,当需要基于秘密信息做出重要决策时,它效果不佳。

常见情况:

(i) 组织参与对抗性冲突或谈判
(ii) 内部争议解决
(iii) 薪酬/资金决策。

通常,组织通过任命拥有极大权力的个人来解决这个问题。

但通过多方计算(目前我看到的是用TEEs实现的;我希望至少两方情况能用混淆电路解决,从而获得纯加密安全保证),我们实际上可以考虑到多人的输入来处理这些情况,而不损害隐私。基本上:你将你的个人LLM提交到一个黑盒中,LLM看到私人信息,基于此做出判断,并仅输出该判断。你看不到私人信息,其他人也看不到你的个人LLM内容。

## The importance of privacy

所有这些方法都涉及每个参与者利用更多关于自己的信息,并可能提交更大规模的输入。因此,保护隐私变得更加重要。有两种隐私很重要:

* 参与者的匿名性:可以通过ZK实现。总的来说,我认为所有治理工具都应内置ZK
* 内容的隐私:这有两部分。首先,个人LLM应尽力避免泄露不需要泄露的关于你的私人信息。其次,当你需要计算结合多个LLM或多个人的信息时,你需要多方技术来私下计算。两者都很重要。
  • 67
  • 89
  • 143
  • 45
  • 12
  • 23
  • 56
  • 78
  • 34
  • 98
  • 27
  • 15
687

vitalik.eth

@VitalikButerin · 6 小时前

我选择平衡。第一级的平衡。 mi pinxe lo crino tcati slatestarcodex.com/2018/09/12/in-…

vitalik.eth

vitalik.eth

@VitalikButerin · 6 小时前

我选择平衡。第一级的平衡。 mi pinxe lo crino tcati slatestarcodex.com/2018/09/12/in-…

@VitalikButerin · 6 小时前
"AI becomes the government" 是反乌托邦的:当AI弱时会导致混乱,而一旦AI强大则会最大化灾难。但如果善用AI,它可以赋能,并推动民主/去中心化治理模式的前沿。

民主/去中心化治理模式(包括以太坊上的DAO)的核心问题是人类注意力的限制:需要做出成千上万的决定,涉及多个专业领域,大多数人甚至没有时间或技能成为一个领域的专家,更不用说所有领域。通常的解决方案——委托——是削弱权力的:它导致一小群代表控制决策,而他们的支持者在点击“委托”按钮后完全失去影响力。那么我们该怎么办?我们使用个人LLM来解决注意力问题!以下是一些想法:

## Personal governance agents

如果治理机制依赖于你做出大量决策,个人代理可以根据从你的个人写作、对话历史、直接声明等推断出的偏好,为你执行所有必要的投票。

如果代理(i)不确定你在某个问题上的投票立场,且(ii)认为该问题很重要,那么它应该直接询问你,并提供所有相关背景。

## Public conversation agents

好的决策往往不能来自仅基于个人信息的线性过程,并对这些观点进行平均(即使是二次平均)。需要一种过程来汇总多人的信息,然后给每个人(或他们的LLM)一个机会基于此进行回应。

这包括:

* 推断并总结你自己的观点,并将其转换为可以公开分享的格式(且不暴露你的私人信息)
* 总结人们输入之间的共同点(以文字表达),类似于各种LLM+的想法

## Suggestion markets

如果治理机制重视任何类型的“高质量输入”(可能是提案,甚至可能是论点),那么你可以建立一个预测市场,任何人都可以提交输入,AI可以押注代表该输入的代币,如果机制“接受”输入(无论是接受提案,还是将其作为对话的“单元”传递给参与者),它会向代币持有者支付$X

注意,这基本上与

## Decentralized governance with private information

高度去中心化/民主治理的最大弱点之一是,当需要基于秘密信息做出重要决策时,它效果不佳。

常见情况:

(i) 组织参与对抗性冲突或谈判
(ii) 内部争议解决
(iii) 薪酬/资金决策。

通常,组织通过任命拥有极大权力的个人来解决这个问题。

但通过多方计算(目前我看到的是用TEEs实现的;我希望至少两方情况能用混淆电路解决,从而获得纯加密安全保证),我们实际上可以考虑到多人的输入来处理这些情况,而不损害隐私。基本上:你将你的个人LLM提交到一个黑盒中,LLM看到私人信息,基于此做出判断,并仅输出该判断。你看不到私人信息,其他人也看不到你的个人LLM内容。

## The importance of privacy

所有这些方法都涉及每个参与者利用更多关于自己的信息,并可能提交更大规模的输入。因此,保护隐私变得更加重要。有两种隐私很重要:

* 参与者的匿名性:可以通过ZK实现。总的来说,我认为所有治理工具都应内置ZK
* 内容的隐私:这有两部分。首先,个人LLM应尽力避免泄露不需要泄露的关于你的私人信息。其次,当你需要计算结合多个LLM或多个人的信息时,你需要多方技术来私下计算。两者都很重要。
  • 67
  • 89
  • 143
  • 45
  • 12
  • 23
  • 56
  • 78
  • 34
  • 98
  • 27
  • 15
687
加载中……
已加载全部
大V推荐
加载中……
已加载全部

顶部