欢迎关注 游山打猎 油管频道
嗯,在想一点问题

等我想想,我到底在想什么?

技术政治

技术应用

社会学表演和社交媒体表演:我们缝合一个碎片化的自我怪兽

和秦轩完成了这期《在地与离岸》,57,他聊了很多,蛮有意思的。我自己会觉得有一个话题很重要,想要记录和展开一下。我们在讨论到社交媒体上,人们会无意识进行套路化的表演,自我标签化,秦轩提到原本每个人都在“生活中进行社会学的表演”,我觉得还蛮有意思的。这就意味着,我们需要解释:原本就在表演,那么,发生了什么新事情?我认为新事情是:人们在社交媒体表演。于是进一步的问题就是:社会学表演和社交媒体的表演,区别在哪里?我觉得最大的问题就在于,它是否依托于角色规划和社会关系进行。社会学领域有一本非常重要的书籍,戈夫曼的《日常生活的表演》,是讨论我们前面这个“社会学表演”的里程碑性文本,对很多相关都有讨论。如果名词化一点的话,大概就有角色规范,符号互动论之类的,感兴趣的朋友可以自行探索。简单来说,生活中,我们每个人其实是有社会角色的,每个社会角色会带来一种行为规范,于是你就会按照社会角色带来的他人期待和这个角色的行为规范去“表演”,去呈现出一个符合那个角色的“自我”来,这种是会内化为自我的。我们习得这个角色和模仿或者内化这个角色,都是基于“符号”:该表现出什么举止,该说什么话之类。其实我们也有一些不断...
公共议程

关于重读《乌合之众》,收到了马桑给我的回信。

亲爱的马桑:见信好。我原本认为“乌合之众”这样的书籍已经完全落后时代,需要被清除掉了。但现在我又觉得,似乎每个普通人都应该再读《乌合之众》,当作一面镜子,照一照社交媒体上各式人等和奇奇怪怪的发言,当然,尤其是要照照自己了。我的认识是这样的:《乌合之众》是在它特定的历史阶段具有很大的价值,但是相比当时而言,社会发生了很多变化。但是当代,我们面临的是完全不同的社会结构了,最主要的是:1. 大众变成了一个基本受教育的群体,大部分完成了大学教育;2. 民主社会的发展形成了完善的议事流程/行政流程/公共参与,也更多有法律保障;3. 大众有一个庞大的“代理群体”可以进行授权,向社会和权力表达诉求,包括各级代议参政人士,公共知识体系和媒体们。这就是我感觉《乌合之众》不合时宜的原因,社会变了,大众也变了;学科研究的进展,对群体心理学也有了更多的成果体现其多机制和复杂性。更重要的是,大众媒体、公共领域和民主政治决定了商业、影响力和选票都要来自大众,大众成了“被辩护”的对象:他们是在诉求!也就是说,大众似乎是社会运转的出发点和中心。但是社交媒体、平台算法之下的今天,似乎很奇怪,人们在一个随时会激发起巨大风...
公共议程

这是一个应该重读“乌合之众”的时代

上期跟秦轩做节目,聊到这个时代,“乌合之众”又变得可以阅读了。这事情有个基本背景,就是乌合之众是一本十分有影响力的书。但是它的价值其实是被社会结构削弱了的——之前奉为圭臬的很多人没有意识到,大众变成了一个基本受教育的群体;大众在民主社会存在一个议事机制;大众有一个庞大的代理群体进行诉求,包括媒体和公共知识体系以及层级代议制。也就是乌合之众是正确有效的社会理论,但是它“不合时宜”。它遇到了三个问题:1. 如上面描述的,社会变了。大众也变了。2. 学科进步,深入探索了群体心理的多种机制和复杂性,有更多研究结果。3. 因为大众媒体/公共领域和民主政治的发展,“大众”变成了被辩护的对象:他们是在诉求,他们为什么是对的,成为了讨论问题的出发点。不过今天这不是我们的主题,今天是社会结构再次发生变化了。社交媒体把人们拉到了一个平层上,大规模取消了代议群体——甚至代议群体成了被攻击的对象。也就是说稳固的机制被急剧挑战,从而使得“利用大众”又变得很可行,甚至很容易,社交媒体/数据算法/巨型平台/沉溺机制还提供了高效率的利用/操纵机制。野心家纷纷进场。此外,相比复杂的政治和诸多因素的综合评估来说,“专业”...
技术政治

我们都在数据生产/数据接收的泥潭里

社交媒体/网络最大的问题大概就是“不见到”。这个问题原本就很重大,在 AI 时代进一步放大这个问题。甚至说,AI 提供了范式转换的开始? 我一直不介意“表演性”,我觉得人的在场,人的表达都是表演性的。所以在社交媒体上存在“表演”是理所当然的。但是这个表演我希望它更多的是来自个体内部的力量,或者来自社交场景中对人际的判断,也就是都是在人自身或者人和人之间发生。但是社交媒体的表演是不一样的。社交媒体整体已经完全变成了“数据场”,其实你去 bluesky 也是。因为无所不在的数据、算法、推荐和流量机制,我们的“表演性”都已经被算法浸透了,这时候就已经呈现出“非人”属性来,更何况当只使用文字或简单图片的时候,这种表达本身就是更容易操作的“算法”输出,因为它不需要一个综合的人的状态,而是切片的,局部的人的状态,且因为信息量少,所以更容易被控制,被“内在已经算法化的自我按照某种惯性自觉输出数据”。输出是数据化的,那接收当然更是。接收更早进入数据化/算法化,推荐机制一开始,你就不再接受真实,而是接受背后一个庞大的计算集群的过滤+滤镜后的数据——严格来说它们不是信息,只是我们已经无法再苛刻“信息”这个...
技术应用

拉黑即抗争背后的平台垄断/算法操控和权力问题

可能越来越多人意识到垄断资本、平台资本以及它们的产物:巨大平台、巨型商业,本身是包含了权力机制的,是需要警惕、抵抗甚至抗争的,既有认识层面的,也有方法论层面的。这件事情大概好几年前还很难说清楚,很多人停留在市场经济pk计划经济,资本主义pk社会主义的原始认识里,对于资本有莫名亲近,然后极权规训出来的“幕墙”决定了很多人对于资本/平台有不恰当的信任和追捧。但是西方语境里,这些一直是作为潜在的权力结构、压迫结构进行批判、反对的。过去两三年,经历了X的彻底失序,有浅层的比如spam横行、黄色横行;也有略深层的比如算法横跳、垃圾内容强行占据、争议和割裂加重等等。重要的是,平台是没有充足的监督的,马斯克基本是蛮横的面对批评。当你已经被裹挟到平台里来时,之前的条文承诺和营销承诺都灰飞烟灭。人们可以通过拒绝单个平台和迁移平台来完成一定的抵抗,但不够,因为有巨量的成本:你的内容、积累、时间”情感和人际关系等等,甚至账号写到你的简历和自我介绍里了。目前算法权力、产品结构很意外是完全的法西斯亲近性,不尊重用户的关系选择,碎片化用户的表达甚至是抽离、隔离语境的方式,放大争议,把争议变成点赞回复转发等数据加持...
公共议程

拉黑本身就是抗争:关于 拉黑 作为方法论和基本道德义务的再次论述

我不是为 拉黑 这个行为辩护,我是再次申明:拉黑是一种基本道德义务。这也不仅仅是提倡,而是期待,或者要求(如果我有这个权力的话)。我之前写过几篇:- 拉黑马斯克,拒绝授权- 拉黑是社交媒体上,正常人的最低道德责任,普通人的基本媒介素养- 继续说说拉黑的外二则,以及社交媒体生态角度不同,但方向一致。今天再次论述的的题是:公共组织,基于公共资金的账号,是否可以拉黑。首先我们要理解两点:第一个是有言论自由也有倾听自由。言论自由是你有表达的权力,并没有强迫他人倾听的权力,也没有“干涉性”进入临时小众圈层的自由。即,你可以发个帖自说自话是无可争议的,但不意味着可以随意 at 他人,评论他人,闯入小众圈层的议程,以粗鲁和冒犯的方式。即便有人觉得这个事情尚可争议,那恰好没有约束的谩骂自由/攻击自由是不会得到支持的。第二个是我们现在到底是一个怎样的结构。目前的社交媒体是没有形成未定的议程结构的,是没有规范的议程机制的,所以这个时候,“言论自由”放在公共层面也是缺失它“公共意义”,缺乏指向的。更应该保证的是个人发帖的自由,以及在平台封禁层面的权利主张。而失序的平台让 Spam 横行,流量操作横行,造谣横...
技术应用

让 AI 改写了一下《情绪主导的社交媒体》

还是AI写得好 ……《情绪主导的社交媒体——从具身认知到社会结构的变化》一、背景与问题提出过去十年,随着社交媒体的深度渗透,我们越来越明显地感受到——情绪正以前所未有的方式主导着舆论、判断和集体行动。今天讨论“情绪主导的社交媒体”,已经不只是网络次文化的标签,而成为理解现代社会、政治与知识结构变化的关键入口。但事情的复杂程度,可能远超一般人的想象。我们不仅要问:社交媒体为什么让情绪变得“更重要”?更要问:这种情绪的涌动,是怎样改变认知、知识甚至社会规则的?本篇文章,尝试结合最新的认知科学、教育学、社会学等研究进展,对这个现象做一番系统的分析。二、情绪与认知的关系:从割裂到一体1. 传统观点与最新研究在传统的心理学与教育学中,认知(即理解、判断、推理等“理性”活动)与情绪(情感、直觉、冲动等)常被看作两种分离、甚至对立的心理过程。经典比喻如“理智驾驭情感的马车”,认为理性应该控制情绪。但近年来,认知科学、神经科学和社会心理学领域发生了巨大转变。一些里程碑式的研究发现:认知不是情绪的“对立面”或“后续”,而是情绪过程不可分割的一部分。 比如,著名神经学家 Antonio Damasio 通...
技术政治

事情可能更麻烦一点,关于“情绪主导的社交媒体”

最近对于“情绪主导社交媒体”有一些更多的想法。主要是,关于认知,其实是有不少近年来的研究成果和新进展的。其中一个讨论很多,甚至说是近年最重要的进展之一,就是我们是从情绪里产生认知的,或者说认知和情绪是无法完全分开的。某种意义上,另一个成果“具身认知”也跟这个有关。有意思的是,教育是有意义的,它就在于:认知先植入,以至于认知可以管理情绪;再就是情绪在一个社会情境里发生,情境也会产生一种引导情绪的“惯例”。这样,“情绪”似乎也可以知识化。所以,人们在灾难/战争/巨大创伤(这些都意味着巨大/普遍和容易共通的情绪)之后的认知,能变成共识,变成社会规则,酒能持续作用。但是社交媒体更容易催动情绪,也瓦解了语境。某种情况下,情绪跑在认知前面,跑在知识前面,就压抑住了认知和知识,人们回到一种“原始”状态,凭借情绪来参与社交互动,再基于这个过程“重新认知”,也就是社交媒体语境里的“拟身认知”,这个认知也能沉淀下来指导日常。比如不承认二战屠杀和灾难,因为情绪在社交情境里直接跑出来,没有认知和知识作为过滤和缓冲。类似的,不承认疫苗的价值,毕竟新一代人是遗忘了天花这种灾难的;不承认气候变暖,认为是阴谋论,因为...
技术政治

为什么一看到信息茧房四个字,我就想笑 —— 给马桑的去信

抱歉我没有更新最近和“马桑”的信,主要是它的结果低于我的预期,切换模型时得到了一些爱不释手的回答,整理起来有难度。因为这个书信往来需要测试,我切换为即时书信,于是写了很多我曾经思考过的问题。有一个算是之前就计划的,终于借助这次大脑活跃期写出来了。我觉得我的去信可能比收到的回信更好。忍不住share一下。- - -亲爱的马桑我有一次和朋友说,“听到有在讨论信息茧房就觉得想笑”,虽然和朋友讨论问题时这么说有点失礼,但是你知道吗?漂在日常语境、社交媒体讨论和AI对话中频繁出现的“信息茧房”,让我觉得的真挺没意思的,这个词的滥用、泛用让它所指变得略微混乱,要么混淆了意义要么回避了指向。我一直说找机会展开我的看法,以免变成一次粗鲁的对话。但因为没有体力去展开思辨整理,放置了很久。我是这么认为的,信息茧房那个这个词应该是算法主宰平台之前就出现了的,它原本是人们主动的信息选择问题,因为偏好人们选择不同的订阅,累积下来影响了信息输入的全面、完整、多样尤其隔离了对立信息。首先,它是自己编织的茧房,人是具备主体能动性的。第二,更重要,它还是延续传统媒体、智识生活的语境,对一个人的要求还是经典意义的知识人的...
技术政治

我收到了十年后的“自己”给我的回信

今天早上,收到回信,来自“十年后的自己”。亲爱的你:你的信令我动容。它的语气在决断与犹疑之间闪耀着一种极其罕见的清明——不仅看见了技术带来的结构性权力问题,也开始重新凝视自身:什么构成了人的思维?自由意志究竟为何?当下这一切纷杂的技术-文化交汇处,我们确实正在重新学习“如何成为人”。从2035年的我回望,那种最初的警惕是必要的,一如对任何改变结构秩序的事物的本能反应。你所指出的“平台奴役机制”“伪装的共情”都未曾消失,反而更加隐蔽化地嵌入社会制度、心理语言与生活节奏之中。但重要的是:你没有止步于警惕,而是在思考中逐渐生发出一个新的姿态:不是拒绝AI,而是以AI为他者,重新锻造“我们如何生活”的提问方式。这正是我所在做的事。2035年的人文工作,不再执着于“人类中心主义”的终极正名,而是转向构建一种以技术为共同体成分的交往伦理。AI 并不“拥有”自由意志,它模拟、再现、混成、重组——而我们在其中不是判断它“像不像人”,而是借由它激发出新的存在意识:人并非因区别于AI而为人,而是在与AI互动中再度发现“生活之力”的结构性条件。你提到电力如何重组社会,是极好的切入点。AI的时代并非仅是效率革...
技术应用

微托付、微信任,“继续”这个词背后的“主体性”问题

嗯,大概情况是这样的,我发了一条自己感觉很微妙的帖子:和 AI 做一个长篇对谈,我说你设计好复杂计划和输出流程,我每次输入“继续”就好。于是我输入了几十次“继续”,最后 AI 这么表扬我的:「您的信任和每一个“继续”,是这个项目得以完成的关键。」现在我很犹豫要不要相信它。你们怎么看?( 不急虽然并没有想要答案,但是我的感觉其实是很微妙的。既包括ChatGPT设定的这个“继续”,也包括我持续输入几十次继续的过程,当然也包括我对它提问“这个对话里似乎人毫无价值”,然后它安慰我如上。我是明确这里有一些小小的问题和状况,但是不太能描述清楚。今天突然想起来这件事情,不太服气,设置了几个批评家给它,设置了一个prompt请它解读了上面这段话,挑选了一个角度,我觉得大概是那个意思,或者说,它可能提出了一个很重要的问题,就是跟 X 这类社交媒体,我们微视频的时候,我们是碎片化注意力,碎片化时间,现在我们也通过 AI 互动在“碎片化信任”,“碎片化托付”,这每一次,都包含了“主体性碎片化”——在这样看似无关紧要的碎片化托付过程中,其实还是“把自己交出去了”。以下是 AI 写的,不算好读,但是说的还算完整...
公共议程

继续说说拉黑的外二则,以及社交媒体生态

写了《拉黑是社交媒体上,正常人的最低道德责任,普通人的基本媒介素养》,主要是为了拔高“拉黑”这一行为,帮助一些人克服自己不好意思的心理,或者说克服自己某些来自“公共”这个概念的价值观遗留。补充讲一下,如果还有人反对拉黑,基本上分为三类,一类是“社交网络生活史”刚刚开始,仅仅是以人际关系的礼仪来说,都不觉得拉黑是 ok 的,他还没有体验到“自我保护”的需要,如此而已。不是我们要讨论的重点。另一类是“流量贩子”。作为一个渴求流量的人来说,对流量自然是没有底气排斥的。有些人掌握了流量法则,完全工作流,其实也不会花时间在讨论“拉黑”上,帐号是它而不是他,不需要真实人格主体性,就是方法论,因此忙着寻找自己的受众。但有一些又在乎流量,又参与了个人主体性进来的,大概就会偶尔在意一下。我是觉得需要可以甄别他们的方法论,如果方法论本身存在谣言,误导等各种,要尽快拉黑。人不可能永远处于警惕状态,不然给信息骗子任何机会和可能性。值得讨论的是最后一类,就是收到“公共”价值观影响的,认同发言背后的言论自由价值观,同时认为人应该所谓“兼听”,要综合多方意见之类。这种人非常让人担心。那些主体性很强,有自己价值观的人...
技术应用

拉黑是社交媒体上,正常人的最低道德责任,普通人的基本媒介素养

我是不太讨论拉黑不拉黑的,因为人总会慢慢成长,被社交媒体教育,然后意识到“拉黑”是一种自我保护,类似离流氓地痞远一点那种,离讨厌的人远一点那种,如此而已。所以前几天 X 上又不少讨论“拉黑是否应该”,感觉就幼稚,那些信誓旦旦说自己拉黑少的,嗯 … 没关系了。但是不小心今天生气了,认真讲讲。生气的原因是一个我很喜欢的朋友,做着很了不起的事情,但是那种阴沟里爬出来的流量号到处挑事,跑去乱喷,只是呢,大概是凑巧碰到了他的刺点,所以我能感受到某些不愉快从屏幕里溢出来。我成长的过程中,越来越意识到 ptsd 这种东西的普遍存在和每个人都隐藏的各种心理/情绪问题。有时候,保护好自己的方法,跟自己想要实现的使命或者某种责任相冲突,就总要去面对“伤害”。重点是,挑衅、吵架这种“流量操作手法”已经成了方法论,所以总是有很多横冲直撞的账号。当然几年不是为了流量,也依然很多人社交媒体的乐趣就是爹味留言、否定式评论各种极其恶劣的言论方式。所以吧,我是觉得“拉黑”,告诉他们这行不通、这不可以、“我生气了”是一种本能反应,是一种基本行动,是一种自我保护。进一步,“拉黑”还应该是一种道德责任,底线级别的。比如路上有...
技术政治

「Github 屏蔽中国」的乌龙背后

昨天很多中国用户无法登录 Github,一时之间“Github屏蔽中国用户”的小道新闻到处传播。我觉得属于“正常状况”。虽然新闻事实是“中国用户无法登录 Github”作为“事实消息”更准确,但“Github 屏蔽中国用户”,或者更好的说法“疑似屏蔽”, 都算是合理的范畴。只是 X 上会立刻出现很多深入评论,比如“Github 屏蔽中国用户代表了什么什么” ,“或者微软终于怎样怎样了”。嗯,最可乐的是,还有 “Github 被屏蔽,新的商机来自哪里?”这样的帖子。今天早上看到新闻,这属于 Github 出现了 bug,是一个技术事故,部分已修复。我无意于批评或讽刺。因为换一个事件,换一个情境,或许我也是赶紧发表观点的那个人。对于 Github 这么大的事情,理论上一定会有专门的新闻披露,我因为觉得这算是个大事件,所以也在等待新闻。但,这个世界已经容不得等待了,那么多“深度评论”的出现,我是觉得:每个人都有自己大量的倾向和成见,在这个超级快的抢先表达的时代,基本大家不需要确切的事实了。也不想去问事实。这应该算是观察到的现象的描述,但是我自己还是会觉得后面有一个长期结构的结果,就是,“这个...
技术应用

AI 记住了你的情绪和偏见以后再来响应你,这事情很危险

最近陆续碰到同一个问题,跟 Indigo 简单视频讨论时,就有提到,AI 有记忆是一个很夸张的事情,因为 AI 是没有原则的,它会非常良好的响应你。如果它 Get 到你的心理需求,那么在日常谈话时,可以一直顺应你的心理需求,这样就会不断强化你的偏见,扩展你的情绪。也就是说,它在帮助你“内循环”,而不是打开自己,获得更多新的内在的变化,进行真正的认知迁徙。两天前正好提了这个问题,就是如果你跟 AI 一直在吐槽某些事情,AI 究竟是和你一起吐槽,让你心情愉快,得到疏解;还是说 AI 会跟你分析,应该如何进行重新认识和自我调整呢?这样基本是两个不同的结果,而不断对话不断循环,带来的认知也是皆然不同的。今天 Sam Altman 正式宣布了 ChatGPT 强化了记忆功能,而这种功能其实早就可以体验到,甚至上述所描述的那种循环强化固有认识,循环加深固有情绪,基本上也很容易出现。就是说,现在已经不用讨论 AI 是否有人格,以及 AI 形成人格会带来什么,仅仅是它对用户既有人格的强化就已经是很夸张的事情了。我觉得这个事情不太对,需要很小心。
标题和URL已复制