我思考的问题都从哪里来,如何思考

  1. 对世界的各种现象的好奇心。
  2. 发现有意思的问题。
  3. 把问题数学化,构建数学模型。
  4. 从原则上看一看这个数学问题的求解的可能性以及大概的方法。
  5. 广泛地阅读和思考,受其他人和其他事情的启发。
  6. 深入地阅读和思考,有长时间关心的基本问题。
  7. 概念地图思维方法:把东西弄明白,变成自己的。这样思考的时候自然就会联系起来。

举例1:汉字网络研究

  1. 由于自身的兴趣以及某些外在因素,一直思考汉语和汉字学习的问题。
  2. 注意到汉字之间的在结构、含义和读音方面的联系,又一直在思考网络科学的问题,就把两者联系起来了。
  3. 把问题数学化:一个汉字的网络作为基本结构,学习顺序、检测顺序作为基本的问题。
  4. 学习顺序的问题稍微简单一点,可以先解决。检测顺序的问题还在研究中。
  5. 广泛地阅读和思考:网络科学以及网络科学用来解决某些问题的思路受其他人的工作的启发。
  6. 深入地阅读和思考:网络科学的问题和汉字学习的问题都是长期在思考的问题。
  7. 概念地图思维方法:内化(汉字之间的关系和网络科学的思考方法)和建立联系(把这两者结合)非常重要。很多时候突破就在这个时候产生。

举例2:介数和OD矩阵的研究

  1. 网络上的几何量以及如何用这些几何量来描述现实的世界解决现实世界的问题一直是我思考的问题中的一个。
  2. 有一天忽然想到把每一对节点的几率考虑了进来,来看看这个时候的介数。后来发现这个每一对节点的几率的量就是交通设计中的OD矩阵(出发点和目的地矩阵)。
  3. 于是数学问题就算成了:给定一个网络,给定一个OD矩阵,计算介数,让这个介数描述现实的交通流问题,与原来的介数比较哪一个更好。随着研究工作的开展,发现这个实现介数已经被人提出来了,检验和对比的工作也有人做了。
  4. 这个时候,一个自然的问题就是如果已知网络、已知流量,是否能够计算介数?
  5. 重新数学化:这个问题可以表述成为一个线性方程——一个非定的长方形的线性方程。这样的线性方程不一定容易求解。
  6. 广泛地阅读和思考:从王文旭的工作中了解到非定方程的求解之后,仔细了解了陶哲轩的相关工作。某些时候不定方程可以有某种意义上的解。
  7. 深入地阅读和思考:网络科学和数值线性代数一直是我非常关心的问题。
  8. 概念地图思维方法:内化(不定方程的求解)和建立联系(OD、介数、不定方程的求解)非常重要。很多时候突破就在这个时候产生。

在一个已经变态的社会里面,你选择一起变态吗?

昨天在南院综合楼的门口停了一辆车,把路给堵住了。车位满了,停在了路口。我小心翼翼才把自行车给弄出来,因为赶着去本院上课,就挺有意见的。

今天,我去找楼管。楼管是这么说的:这时我们楼里(一个)领导的车。这地方经常停着车呀,怎么没见你抱怨?领导的车就是应该照顾一下。要是你们学院的领导来了,我也会照顾一下。

领导的车,照顾的后果,就是没有停车位也可以停车,就是妨碍了其他人的行动。

考虑到“互利性”(你看,没准以后我的领导真的来了;没准以后我还需要有事麻烦她的地方,等等等等),这个事情我就应该算了。

可是,如果人人都把不正常的事情当作正常的,有点小小权利的人都可以按照自己的喜好来给人方便和不便,这个社会怎么办?

我见过门卫把很多人的车挡住,停满了,不让进。现在,一个楼管就可以这样做,而且原则是你是不是领导,你让那个门卫情何以堪?你让所有的制度情何以堪?一个对制度的破坏的小小的事件,就可以把一个制度完全破坏干净。

只需州官防火,不许百姓点灯,我们的整个社会的制度,不就是被这样破坏的吗?当然,至于制度是不是一个好制度,可以另外讨论。

在一个已经不正常的社会里面,你选择自己变态来适应呢,还是默认,还是接受,还是尽你所能让这个态变回来?

我准备去找找管理单位,问问,他们的制度里面有“领导就是要照顾一下”吗?

Summary of The Theory of Learning in Games by Fudenberg

First, the scope and assumptions of the question of learning in games.

Second, several learning models.

  1. Pure Strategy Best Response Equilibrium and Best Response Dynamics
  2. \[S^{i} = BR^{i}\left(S^{-i}\right)\]
    and
    \[S^{i}\left(t+1\right) = BR^{i}\left(S^{-i}\left(t\right)\right)\]
    Where \(S^{i}\) is the pure strategy of player \(i\) and \(S^{-i}\) is the pure strategy state of players other than the player \(i\)

  3. Mixed Strategy Best Response Equilibrium (Nash Equilibrium) and Best Response Dynamics
  4. \[\rho^{i} = BR^{i}\left(\rho^{-i}\right)\]
    and
    \[\rho^{i}\left(t+1\right) = BR^{i}\left(\rho^{-i}\left(t\right)\right)\]
    Where \(\rho^{i}\) is the mixed strategy of player \(i\) and \(\rho^{-i}\) is the pure strategy state of players other than the player \(i\)

  5. Pure Strategy Fictitious Player
  6. \[S^{i}\left(t+1\right) = BR^{i}\left(\rho^{-i, E}\left(t\right)\right)\]
    Where \(\rho^{-i,E}\) is the empirical distribution of strategies of players other than the player \(i\) from the whole history, or certain length of the previous actions

  7. Replicator Dynamics, mimicking the best or the better
  8. \[Prob\left(S^{i}\left(t+1\right)=S^{j}\left(t\right)\right) = \delta_{E^j\left(t\right), Max\left(E^{1}\left(t\right), \cdots, E^{i}\left(t\right), \cdots, E^{N}\left(t\right)\right)}\]
    or
    \[Prob\left(S^{i}\left(t+1\right)=S^{j}\left(t\right)\right) \propto e^{\beta\left(E^{j}\left(t\right)-E^{i}\left(t\right)\right)}\]

  9. Pure Strategy Smoothed Best Response Equilibrium and Best Response Dynamics
  10. \[S^{i} = \bar{BR}^{i}\left(S^{-i}\right)\]
    and
    \[S^{i}\left(t+1\right) = \bar{BR}^{i}\left(S^{-i}\left(t\right)\right)\]
    where
    \[\bar{BR}^{i}\left(\rho^{-i}\right)\propto e^{\beta E\left(s^{i},\rho^{-i}\right)}\]
    is a probability distribution of player \(i\)’s strategies and \(S^{i}\) takes one sample from this probability distribution at a time.

  11. Smoothed Fictitious Play
  12. \[S^{i}\left(t+1\right) = \bar{BR}^{i}\left(\rho^{-i, E}\left(t\right)\right)\]
    Again \(S^{i}\) takes one sample from this probability distribution at a time.

  13. Here comes something that is natural but not in the book: Quantal Response Equilibrium (QRE) and Dynamical QRE, or mixed strategy smoothed best response and its dynamical version
  14. \[\rho^{i} = \bar{BR}^{i}\left(\rho^{-i}\right)\]
    and
    \[\rho^{i}\left(t+1\right) = \bar{BR}^{i}\left(\rho^{-i}\left(t\right)\right)\]
    What it does is to simply replace the static/dynamical mixed best response by static/dynamical mixed smoothed best response. This is what we have done in this field: Dynamical QRE and its stability.

  15. In principle, one can also have mixed fictitious play with smoothed best response
  16. \[\rho^{i}\left(t+1\right) = \bar{BR}^{i}\left(\rho^{-i,E}\left(t\right)\right)\]
    where \(\rho^{-i,E}\left(t\right)\) is some kind of empirical distribution of strategies of players other than player \(i\). For example, one approach can be taking average of all historical \(\rho^{j}\left(\tau<t+1\right)\)s,
    \[\rho^{j,E}\left(t\right) = \sum_{\tau<t+1}\frac{\rho^{j}\left(\tau\right)}{t}.\]
    Not sure this has been discussed by others or not.

All the above models can be simultaneously updated or alternatively updated.

科学家中的社会学习

考虑科学家采用其他人提出的科学方法或者科学概念这样一件事情。我们注意到:第一、非常原创性的工作在短期内比较难以得到大家的采用;第二、原创性不高的跟踪性的工作往往更容易发表和得到采用;第三、原创性高的工作最后还是会扩散开来。

问:如何描述这件事情,扩散和得到采用的时间等取决于什么因素。

模型:我们把科学家分成三种:聪明的,一般的和傻的。一个工作会释放一个隐藏的私人信号给每一位科学家,p的几率这个信号就是这个工作的价值。这个p的取值对于三类科学家是不一样的,例如0.8、0.5、0.4。但是所有的科学家都相信自己的聪明的,于是主观认为自己的p=0.8。每一个科学家的类型是隐藏信息,其他人不知道,自己也不知道(可以考虑让科学家自己知道)。但是,科学家分三类以及各个类别的比例是公共知识。对于上帝(这个模型的设计者)来说,每一个科学家的类型是确定的,随机分配以后定下来的。

一个科学家如果有了对一个科学工作的判断,那么判断和实际一样的时候得到收益T,否则损失收益T。

现在再加上一个收益机制:聪明的科学家,尽管是隐藏的,喜欢在少数派里面,收益增加M;傻的科学家喜欢在多数派里面,收益增加M;一般的科学家,无所谓,收益不增加和减少。

看一看这个动力学。如果我们把一般的和傻的合并为一般的,结果会改变吗?如果只有一个群体,那么按照社会学习的已有结果,正确的或者错误的信息塌缩都是可能的。多个群体呢?没准科学的扩散与传播需要多个群体?