toRefs解构响应式状态

news/2024/7/10 3:20:47 标签: vue
<div id="app">
   <p>作者: {{ author }}</p>
   <p>书名: {{ title }}</p>
</div>

<script src="https://unpkg.com/vue@next"></script>
<script>
const { reactive, toRefs } = Vue;
/* 为什么这里又从effectEffect换成toRefs了?有什么不同?*/
//const state = reactive({
   const app = Vue.createApp({
      setup(){
         const book = reactive ({
            author: '孙鑫',
            year: '2020',
            title: 'Java无难事',
            description: '让Java的学习再无难事',
            price: '188'
         })
         let { author, title } = book;
         return {
            author,
            title
         }
      }
   })

const vm = app.mount('#app')
</script>

我也不懂标题是什么意思,懵懵懂懂迷迷糊糊

加了toRefs函数就可以改响应式了

<div id="app">
   <p>作者: {{ author }}</p>
   <p>书名: {{ title }}</p>
</div>

<script src="https://unpkg.com/vue@next"></script>
<script>
const { reactive, toRefs } = Vue;
/* 为什么这里又从effectEffect换成toRefs了?有什么不同?*/
//const state = reactive({
   const app = Vue.createApp({
      setup(){
         const book = reactive ({
            author: '孙鑫',
            year: '2020',
            title: 'Java无难事',
            description: '让Java的学习再无难事',
            price: '188'
         })
         let { author, title } = toRefs(book);
         return {
            author,
            title
         }
      }
   })

const vm = app.mount('#app')
</script>

http://www.niftyadmin.cn/n/957419.html

相关文章

toRef与toRefs有什么区别,没看出来,toRef是可以传单个的吗?单个的时候可以用toRefs传吗?综合的时候用toRefs简便得多?

<div id"app"><p>作者: {{ author }}</p><p>书名: {{ title }}</p> </div><script src"https://unpkg.com/vuenext"></script> <script> const { reactive, toRef } Vue; /* 为什么这里又从effect…

Pytorch的nn.DataParallel

公司配备多卡的GPU服务器&#xff0c;当我们在上面跑程序的时候&#xff0c;当迭代次数或者epoch足够大的时候&#xff0c;我们通常会使用nn.DataParallel函数来用多个GPU来加速训练。一般我们会在代码中加入以下这句&#xff1a; device_ids [0, 1] net torch.nn.DataParal…

pytorch中with torch.no_grad():

1.关于with with是python中上下文管理器&#xff0c;简单理解&#xff0c;当要进行固定的进入&#xff0c;返回操作时&#xff0c;可以将对应需要的操作&#xff0c;放在with所需要的语句中。比如文件的写入&#xff08;需要打开关闭文件&#xff09;等。 以下为一个文件写入…

windows10安装gym环境后运行atari-py失败,但是atari-py已经安装,运行env=gym.make(‘MsPacman-v0‘)失败

分三步&#xff1a; 第一步&#xff1a;先卸载atari-py。pip uninstall atari-py 第二步&#xff1a;再重新安装这个。pip install --no-index -f https://github.com/Kojoley/atari-py/releases atari_py 第三步&#xff1a;pip install gym

算法学习(九)——MuZero模型

论文&#xff1a; Mastering Atari, Go, chess and shogi by planning with a learned model github复现&#xff1a; https://github.com/werner-duvaud/muzero-general 参考文章&#xff1a; https://blog.csdn.net/jsjytc/article/details/108318156 http://deeprl.ne…

组合API,Ref什么的先放一放

组合API&#xff0c;Ref什么的先放一放

算法学习(十)——强化学习中的奖励设置(不完整)

强化学习中奖励函数的设置非常复杂&#xff0c;这里只是总结一下我的理解。 1.收益信号只能用来传达什么是你想要实现的目标&#xff0c;而不是如何实现現这个目标。所以不应该把奖励设置的过于细致。 2.使用惩罚项可能导致智能体一动不动&#xff0c;因为不动就不会有惩罚。…

强化学习论文研读(一)——Where Do Rewards Come From?

在强化学习领域&#xff0c;传统的要素为环境&#xff0c;观察表述&#xff0c;奖励&#xff0c;动作&#xff0c;这里的奖励完全由环境给出&#xff0c;论文提出一种内部驱动的奖励系统&#xff0c;如下图所示&#xff1a; 本文将奖励分为内部驱动的奖励和外部驱动的奖励&…