传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

2023级硕士洪韵学术日志

[复制链接]
11#
 楼主| 发表于 2023-6-28 11:35:07 | 只看该作者
6.19日 周一
《ChatGPT将如何影响人类未来?》
某些特定的历史趋势的变化,会通过特定关键点宣告自己的到来,只是它刚刚到来时并不显著。以ChatGPT为代表的“类人心智”的智能模型的出现,就是人工智能发展史上又一个关键节点。2023年3月13日,复旦大学哲学学院、《探索与争鸣》编辑部和《广州大学学报》(社会科学版)编辑部、“复杂现代性与中国发展之道”课题组联合举办了“潘多拉魔盒还是文明利器?——大文明视野中的ChatGPT反思”高端论坛。以本次论坛上部分专家的发言为基础,本刊围绕“ChatGPT究竟是什么,又将为既有社会发展格局带来哪些变数”、“大数据与人工智能狂飙突进的时代,人类如何不被取代”、“如何让新技术更好造福人类”等话题,邀请童世骏等五位教授分别撰文,对这一最新人工智能技术进行了深度的人文反思。

6.20日 周二
《聊天机器人的法律人格争议与传播侵权责任研究:基于ChatGPT场景视角》
讨论聊天机器人的法律责任必然无法回避其是否具备法律人格的争议,目前主要有否定说、限制说和肯定说三种思想流派争论。
这篇论文谈到了依据我国现行相关法律对传播侵权的规制路径,聊天机器人不具备法律主体资格,适用传统民事侵权责任。然而,具有自主学习和强大内容生成能力的大模型ChatGPT的出现,对这一传统规制路径提出了挑战。通过双轨制构建聊天机器人的法律责任主体资格,可以解决我国传统侵权责任的规制困境。针对弱人工智能的聊天机器人,依旧采用传统侵权责任的规制路径;而对于增强人工智能和自主人工智能这类不可预测性较强且具备一定自主决策能力的聊天机器人,应当赋予其法律人格地位,并建立财产保障、安全技术保障与市场保障机制,以应对传统侵权法律无法应对的挑战。

6.21日 周三
《ChatGPT:来自技术哲学的解读》
这篇论文主要从几个比较新鲜的关键词切入的,后现象学;赛博朋克;索拉朋克。是通过引入后现象学技术哲学的非中立性概念,并结合赛博朋克和索拉朋克两种不同的科幻叙事,本文提出对ChatGPT的应用不该仅仅从制定规范的方式限制其应用,而是要看到书写工具正在重新构建作者和文本的定义、内涵和关系。普通使用者可以在这个过程中发挥更积极的作用,而不是消极地被技术改变。

6.22日 周四
《ChatGPT等新一代人工智能的特性及其数字经济效应——基于马克思的机器与异化理论》
本文主要探讨了ChatGPT等新一代人工智能展现出来的深度学习、跨界融合、人机协同、群智开放、自主操控等特性对数字经济的发展具有重要作用。在马克思看来,新机器的发明具有推动社会生产力发展的文明面。在数字经济中,它表现为推动数字技术全面升级、加速数字产业化、赋能产业数字化、助推传统产业转型升级等方面的积极作用。不过,新机器的资本主义应用在数字经济中也会导致劳动者技术性失业问题、“数字异化”现象以及“算法意识形态”等消极效应。在数字经济中对待ChatGPT等新一代人工智能,应该积极推动其社会主义应用,促进劳动力与新一代人工智能的协同发展,培育新产业与新业态;引导新一代人工智能融合实体经济,确保技术成果惠及广大人民群众;构建以社会主义意识形态为导向的通用大模型。

6.23日 周五
《在工具与玩具之间:关于ChatGPT的几点人文思考》
这篇论文主要从ChatGPT这项技术具有双重性质:既是一个用于搜索和研究的工具,也是一个用于愉快对话的玩具切入。强调人们通常高估了ChatGPT作为搜索工具的实用性,也可能低估了它作为趣味交谈和快乐互动的价值。可以把ChatGPT重新构想和开发成为一个对话和交谈领域的新成员,将对话和交谈互动的范围扩展到人类之外的AI聊天机器人。这种扩展可以激发新的人文反思议题,如:善意、理解、教养、交往理性、欣赏“他者”,以及对人工智能的恐惧。此外,这种转变的视角也能使人们重新审视与互联网和人工智能相关的长期问题,例如:“人类”的意义、人类与技术之间的关系、人工智能可能带来的威胁、失去人类价值观的风险、工作和娱乐的伦理道德以及对话和互动的伦理道德,等等。作为一种人工智能语言模型,ChatGPT具有人文启蒙的潜力,包括:促进知识获取、增进互动、鼓励批判性思维、推动逻辑和理性对话以及传播准确信息的潜力。最终,ChatGPT作为工具和玩具的独特能力可以帮助人们更好地理解自己和技术的关系,同时应对日益数字化世界的复杂性。

6.24日 周六
《人工智能创作物的独创性与保护策略——以“ChatGPT”为例》
本文是立足于目前对于人工智能创作物的讨论并没有触及人工智能的“人在回路”交互运行系统的本质,在这一过程中,人工智能必须依靠人类的力量进行迭代与发展。“人在回路”的运行本质揭示了人工智能并非“独立创作”,同时受制于人类输入数据的行为和结果的审核与操控也无法进行真正意义上的创造性行为,所以很难具有著作权法意义上的独创性。强调人工智能创作物并未失去成为作品的可能性,但是需要在现有著作权法体系下进行讨论而不是单独设定独创性判断标准,这就需要适用改良后的“合理人原则”这一相对客观标准来保证标准一致性与弹性。在未来,人工智能创作物应当采取“三阶段”保护策略以适应不同时期的具体发展情况。

6.25日 周日
《ChatGPT类人工智能催生的多领域变革与挑战(笔谈)》
这篇文章以“ChatGPT类人工智能催生的多领域变革与挑战”为题发表系列笔谈文章。既有法学领域对隐私权保护的思考,也有国家安全领域对政府数据安全风险的探究,还有对教育领域的诸多思考。
12#
 楼主| 发表于 2023-7-2 20:00:03 | 只看该作者
6.26周一
《论人工智能生成内容的可版权性问题——以ChatGPT生成内容为例》
本篇北大核心是关于以ChatGPT为代表的人工智能生成内容的可版权性判断,从理论视角来看,赋予版权与“人格价值论”的契合度不高,无法获得正当性辩护;从实践视角来看,向生成式人工智能的创造者、投资者或使用者赋予版权均缺乏可行性与现实动力。
一方面,生成式人工智能的创造者、投资者并不“热衷于”取得生成内容的版权,因为维权成本过高且影响了其技术服务的“订阅制”收入。
另一方面,向生成式人工智能的使用者赋予版权很可能会影响人类创作者的创作热情,增殖创作惰性。因此,合理选择应当是将生成式人工智能作为辅助人类创作的工具,将人工智能生成内容视为人类进行创作的公共素材资源;而人类创作者获得版权的保证则是在人工智能生成素材的基础上,形成更为“差异化”的内容表达。

6.27周二
《ChatGPT:从技术创新到范式革命》
本文首先从ChatGPT的创新效果评估出发,比较分析发现,在OpenAI的系列产品中属于渐进性创新和破坏式创新;而相较于同类竞品而言,确为突破性创新和颠覆性技术创新。而对比中国,ChatGPT事实上已经成为“卡脖子”技术体系的重要一环。
继而进行技术体系解构式分析发现,作为“生产工具”,ChatGPT形成了人工系统领域的生产工具供给的范式革命;同时也实现了人工智能伦理治理的范式变革。追根溯源,ChatGPT产生的组织结构性要素恰恰来源于OpenAI的组织使命及围绕其构建的扁平化项目导向型组织和有限回报的融资机制创新,并在人工智能模型工程化过程中高效耦合开源与众包的研发模式。上述研究发现为后续关于ChatGPT引致的政治、经济、社会影响及其相关的技术治理夯实了研究基础。

6.28周三
《新一代人工智能(ChatGPT)的主要特征、社会风险及其治理路径》
本文立足于作为AIGC(人工智能生成内容)技术的典型代表,它具有拟人化、强交互性、全感官的3个主要特征。ChatGPT的出现可能会掀起AI的技术革命,推动人类生活生产方式创新,促进新一轮科技革命和产业变革。其次文章指出其也会引发数据隐私泄露、社会失业、行业垄断、算法偏见等社会风险。最后强调对ChatGPT的社会风险治理,在伦理方面,应当坚持以人为本、培育公民的数字素养和建立伦理审查机构,促进应用的合理化;在法律规制上,应通过立法、权力监督、制度保障等手段,促进ChatGPT的应用合法化;在技术上,应将法律规制、相关伦理等价值观念转化为算法,以算法来规制算法。

6.29周四
《ChatGPT是否会吞噬我们的剩余快感——人工智能时代的病理学分析》
这篇C刊的主题站在了非常新颖的点上,例如“俄狄浦斯”“剩余快感的病理学”等。在ChatGPT成为学术讨论热点的时候,我们需要理解,人们并不是真正在讨论ChatGPT等生成式人工智能的真实存在,而是在人类自身的象征秩序中,将其颜貌化,变成人类象征秩序下的一个崇高对象。在我们将ChatGPT崇高对象化的同时,也意味着人类主体接受了象征秩序的阉割,蜷缩在象征秩序划定的界限里,从而陷入俄狄浦斯式悖谬性命运轮回之中。为了避免这种悖谬,我们需要延伸剩余快感的概念,从精神分析的角度,给出在多层次的象征层面上重新构想人工智能幻象的可能性。一旦让人工智能重新对象化为一个崇高对象,也意味着主体接受了新的象征秩序,成为一种与之相对应的主体。

6.30周五
《ChatGPT的特质研判、教育审思与风险应对——基于“知识—主体—立场”的视角》
文章指出ChatGPT凭借类人特性具备角色赋予功能,强势进入教育生态场域扮演虚拟教师角色。一方面,ChatGPT能够通过思考交流语义、揣测沟通意图、串联上下语境,进行多元知识输送、个性教学指导与高效教学评价,不仅重塑教育形态,还促进教育系统变革,为教育领域带来技术红利;另一方面,ChatGPT所扮演的虚拟教师可能在知识教学中采用标准化、公式化的模式,致使“三无”知识的传授、在主体互动中秉持工业时代“专业对口、批量生产”的原则,复现教育主体客体化窠臼、在育人理念中尚未建立“善思者”培养意识,与数字化时代育人旨归错位。就后者而言,ChatGPT对教育场域进行着异化重构,暗藏“知识—教学—育人”由表及里式的教育风险。为此,在知识教学层面,应提高学习者知识自主建构意识,培养批判创造高阶思维;在主体聚焦层面,应厘清虚拟教师互动本质,重构人机教育教学主体;在立场坚守层面,应遵循时代发展育人旨归,把握立德树人价值取向。

7.01周六
《ChatGPT的法律人格认定与生成内容性质探讨》
本文针对ChatGPT的法律人格认定与生成内容性质进行了讨论和研究,最终,文本认为,ChatGPT尚不具备法律主体资格,在ChatGPT生成内容被认定为作品对其进行保护时,应明确ChatGPT使用者作为生成内容的著作权主体,通过加强对ChatGPT著作权主体的监管实现对其生成内容的规制,以此加快推进人工智能法治化进程。

7.02周日
《是“神马”还是“灰犀牛”:ChatGPT等大语言模型对教育的多维影响及应对之策》
本文用两个新颖的名词“神马”和“灰犀牛”将文章的学术性和可读性大大提高。ChatGPT以“入侵”的方式在教育领域登陆,初露“灰犀牛”面貌,由此引发教育思想、教育体系和学校教育层面的危机。在教育思想层面,多将其视为“神马”,在态度上选择抵制和观望,其背后既有思维惯性、惰性等历史原因,也有因ChatGPT等大语言模型管理制度缺位导致安全感无处寄放的现实依据。就教育体系而言,ChatGPT引发的教育自洽与替代焦虑加持,将从内外两个角度解构既有的教育目标体系,由此带来基于人的自由全面发展的教育目标体系的重构;ChatGPT将推动知识生产与知识学习的转向,进而以知识教育价值重估为“支点”,撬动教育整体价值重估,促使教育立足“人本”和“高阶”开展价值创造:ChatGPT还将引发学生发展与评价标准、方式的变革,渐次推动教育评价体系的全面创新。就学校教育而言,知识学习的变革,必将推动学校教育时空的重组和学校生态的创新,使课堂教学由“三维”向“四维”转型,进而推动教学生态重塑、流程再造和课堂教学革命,引发教师角色、工作方式和发展方式的变革。
13#
 楼主| 发表于 2023-7-10 19:25:32 | 只看该作者
7.03 周一
《ChatGPT与经济增长:影响机制与政策框架》
这篇是站在经济领域视角,以ChatGPT为代表的生成式人工智能具有广泛的应用领域,通过垂直和横向互补性拓展创新与生产率提升空间,对经济持续增长具有重要作用。具体而言,ChatGPT将推动科技进步进入加速期,提高劳动生产率,形成高效率的新产业,使数据、算法等要素更好地发挥作用。我国应根据ChatGPT在技术、经济等方面的特点,出台数据、资金、人工智能基础设施、落地应用等方面的政策,更好发挥类ChatGPT模型对经济的增长效应。

7.04 周二
《ChatGPT与人工智能时代:突破、风险与治理》
本文介绍了自然语言处理技术的人工智能应用程序ChatGPT在AIGC(人工智能生成内容)领域的突破性进展,以及这种进步的重要意义。通过回溯历次工业革命对社会的影响,提出以下观点:人工智能发展将带来新的工业革命,人工智能社会已经成为趋势;人类的历史就是不断突破自身局限的历史,人工智能正带来一次新的工业革命,前两次工业革命人类扩展了肢体的机能,从第三次工业革命开始扩展的是大脑和神经系统的机能,进入对自身局限挑战的最高阶段,人工智能将推动大脑和其他身体机能整合式扩展,形成智能社会。还分析了ChatGPT可能带来的就业问题和社会分化与不平等,分析了人工智能技术的风险,如隐私和数据安全、算法黑箱可能带来的偏见和歧视、人工智能依赖等问题。最后,介绍了国外研究者关于人工智能社会治理的思想,提出社会治理的基本思路。

7.05 周三
《“生成式人工智能”逼近通用智能的哲学叙事——ChatGPT追问智能本质的哲学分析》
生成式人工智能取得如此成果绝非偶然,当其以技术逻辑的方式使学习之于智能生成与发展的建构性意义展开为人工智能巨大能力的时候,这既是技术逻辑的重要发展,更是技术追求智能本质的重要进展。因为生成式人工智能逼近通用智能绝非仅仅是人工智能技术范式的重要进步与重大发展,而是因其对智能的哲学追问真正推进了人工智能本身。当生成式人工智能基于海量数据来发挥技术“大力出奇迹”的优势,使深度学习的提炼获得超越数据规律的原则之时,当生成式人工智能利用事态组合来展现系统“多样尽可能”的尝试,使自然学习的反思成为系统类主体的能力之时,当生成式人工智能通过引用价值偏好来实现“总结现智能”的可能,使强化学习的交互为系统引入经验、升华经验,实现了人工智能系统智能的升级之时,生成式人工智能就不仅获得了强大的力量,而且真正地逼近了通用智能。

7.06 周四
《ChatGPT学术性使用中的法律挑战与制度因应》
ChatGPT的终极商业化场景尚未明确,但其改变人类创新活动的潜力已经引发社会上下广为关注。目前ChatGPT引发的创新挑战主要与其生成物的学术性使用密切相关:一方面,ChatGPT生成物是否可以受到著作权的保护;另一方面,学者和学生使用ChatGPT生成物完成学术论文或者课程论文是否构成学术不端。人工智能的学术性使用宜从工具化的角度进行处理。因此,我们应当在不排斥学术性使用ChatGPT生成物的同时,对一些特定的滥用行为进行规制。

7.07 周五
《对ChatGPT的一个历史唯物主义反思》
从历史唯物主义的视角看,最为现实的近期问题涉及普遍代工与普遍失业,而现实的远期问题则关涉人工智能时代的生活意义。对这些问题的及时应对是人类生活与美好生活的保障。历史唯物论和历史辩证法强调科技与生产力维度的变化很快就会蔓延到整个社会,事物的发展具有好与坏两种潜能。当生产力中出现革命性巨大变化时,人类应该发挥主观能动性及时调整不适合的生产关系,抓住有利的历史条件,积极主动地解决新问题,不断化危机为契机,首先解决关系到基本生存的匮乏问题,并在此基础上积极创造美好行动与美好感受的幸福生活。

7.08 周六
《ChatGPT赋能图书馆虚拟数字人:技术优势、应用场景与实践路径》
ChatGPT为虚拟数字人在图书馆服务的应用赋予了更大的想象空间和更多的可能性。文航通过总结ChatGPT的运行原理与技术优势,提出ChatGPT赋能图书馆虚拟数字人的主要应用场景,如虚拟馆员智能问答、虚拟讲解员、阅读推广服务以及特殊人群无障碍服务;建议图书馆从技术支撑、信息资源、服务场景以及管理制度等方面出发,探索ChatGPT赋能图书馆虚拟数字人的实践路径,以更好地实现智慧服务。

7.09 周日
《新唯物主义及其历史局限——从ChatGPT现象来看智能时代的物》
新唯物主义是新近西方涌现的关于物的存在的反思的思潮。其中的代表人物包括思辨实在论的甘丹·梅亚苏、格拉厄姆·哈曼,生命唯物主义的珍妮·本内特、行动实在论的凯伦·巴拉德,以及操演性唯物主义的托马斯·内尔。从马克思的历史唯物主义的物的理解出发,反思这一批新唯物主义的理论价值和历史局限,认为新唯物主义并没有真正摆脱马克思曾经批判过的感性直观形式来思考物的形而上学路径。而真正历史唯物主义的方法,需要在具体的社会历史的条件下,通过对具体的历史分析来思考物如何在人类社会中呈现出来。在智能社会的条件下的物,无论是ChatGPT,还是自动驾驶项目,其中的奥秘恰恰在于对话应用和自动驾驶将所有的人和物整合到一个巨大的物与物、人与人、物与人的链接之中,形成了庞大的物体间性和主体间性关系。
14#
 楼主| 发表于 2023-9-11 10:36:47 | 只看该作者
9.04 周一
《提高生成式人工智能伦理要求的研究》
ChatGPT的诞生标志着人类进入弱人工智能时代,给人类带来便利同时也带来伦理风险,减轻或者解决风险关键在于如何提高相关伦理要求。相应提高伦理要求可能在技术、法律、使用者和社会等方面遇到困境。生成式人工智能应具备尊重并保护人权、保护社会多样性和包容性、保护隐私权、拒绝歧视、维护公平公正和向善性等伦理要求,为达到上述要求,提出加强生成式人工智能伦理教育、规制人工智能底层算法和加强对生成式人工智能监管等措施,以建设“人机”共存共赢的社会。

9.05 周二
《生成式人工智能治理的逻辑更新与路径优化——以人机关系为视角》
生成式人工智能技术塑造了人机共生的新型关系,不能简单等同于深度合成技术、智能交互技术、高风险人工智能。新型的人机关系中,既存在人的自主性危机,也有被放大的人工智能治理风险。在风险应对的逻辑中,生成式人工智能的定位应从“老师”转向“伙伴”,不应对服务提供者提出过高要求并作简单的结果评价;同时,应将治理维度从算法治理拓展到用户治理之中。在具体的治理路径上,首先应坚持包容审慎原则,设置过程义务及对应的责任豁免规则;其次,在高风险场景中,应持续进行风险影响评估、充分保证人类监督并提升算法透明度;最后,应通过伦理审查、行业自律、数字素养提升的伦理治理方案以捍卫人的自主性。

9.06 周三
《人工智能立法背景下人工智能的法律定义》
本文在本体论的视角下,对人工智能的法律定义进行了一个全新的界定和阐释。在本体论意义上,人工智能首先是一种信息处理系统,而后才有人工智能科学、人工智能产业等社会性认知。从内涵看,人工智能是依托算力基础设施,通过控制系统的算法处理输入的数据,以软件或硬件等多元集成方式嵌入系统后输出,或者直接在具体场景中输出对人类某种理性功能的模拟状态,在环境中进行交互,并在目标约束下经过反馈修正,最终完成预设任务的信息系统,该种智能系统的法律本质为“理性智能体”。从外延看,人工智能既包括单纯的智能软件或硬件,也包括软件和硬件集成嵌入的智能体,而“强弱”之分和“通用专用”之分不适宜在外延中直接列举,而是需要随着技术发展通过评价性的法学判断来决定是否将其纳入人工智能的法律意涵。

9.07 周四
《人工智能时代教师的技术隐忧与角色纾解——基于“主体性”教育哲学的视角》
人工智能具有历史存在性,其旨在成为人类解蔽的关键,但尚需人为的适切性。因此,如何弥合“人—技术”之间的悖离成为实现教育高质量发展的基础要义。有鉴于此,研究以教育哲学为视域,通过对不同向度的“主体性”阐释,来澄清教师在面对人工智能时角色纾解的可为路径。这既包括认知层面的角色理解,也涵盖实践层面的角色重塑:通过使教师成为与人工智能的对话者、向人工智能的学习者、对人工智能的践行者、促人工智能的创造者,最终实现教师与人工智能共在、共生、共荣,为教师践行教育时代使命奠定根基。

9.08 周五
《生成式人工智能的风险及其包容性法律治理》
本文立足于中国为了鼓励生成式人工智能技术的创新发展以及规避其所带来的风险,中国采取“包容性法律治理”模式的背景下,在治理原则上,包容性法律治理始终坚持协同共治、提升透明度、提高数据质量、发挥法治效能等基本理念;在治理主体上,包容性法律治理提倡多方主体协同治理,充分发挥政府机构、科研机构、行业协会和公民团体等社会组织的力量;在治理过程中,包容性法律治理主张运用多种治理工具,通过技术方案、伦理标准和法律政策全面提升生成式人工智能的风险治理水平;在治理方法上,采取分类分级治理策略;在治理结果上,包容性法律治理强调要注重数字社会的分配公平,弥合数字鸿沟,保障数字空间的基本人权

9.09 周六
《面向产业链的治理:人工智能生成内容的技术机理与治理逻辑》
ChatGPT的技术机理虽能提升模型性能,但却在内容公平性、真实性和可靠性方面带来治理挑战。概率生成文本的方式存在难以控制内容质量的问题。基于网络文本语料库的训练可能嵌入算法偏见,人类反馈强化学习可能加剧虚假信息的生成与传播风险,模型的涌现性还可能产生意料之外的治理风险。迈向“模型泛在”的人工智能2.0时代,生成式人工智能的治理应遵循敏捷治理与韧性治理并重、精准治理和参与式治理协同的原则。针对“模型即服务”的新型产业生态链,围绕信息生产变迁和产业链变迁的核心特性,构建基于应用程序接口模式的治理、基于插件模式的治理和基于模型垂直部署模式的治理架构。
9.10 周日
《面向“以人为本”的生成式人工智能:挑战与路径》
生成式人工智能在等多个领域快速发展,随之带来的各种潜在风险引发社会各界的高度关注。为了规范生成式人工智能技术应用,实现造福人类的目的,发展“以人为本”的生成式人工智能势在必行。“以人为本”的生成式人工智能是一个社会性、技术性兼具的问题,在人机高质量协同、模型驱动数据、治理方式等方面存在挑战。发展“以人为本”的生成式人工智能,需要加强对基础理论和价值准则的研究,加强对可解释性增强技术与公平性增强技术的研究,加强对其应用与治理的研究。
15#
 楼主| 发表于 2023-9-18 12:13:41 | 只看该作者
9.11日——9.17日
本周以看书《论人与人之间不平等的起因和基础》和看一些课堂老师提到的新闻传播相关论文为主。

9.11日 周一
《论人与人之间不平等的起因和基础》
首先是对书籍和作者有了一新的认识和了解:卢梭是18世纪法国资产阶级民主主义者,更具有激进性,有着唯心主义观点和形而上学的思想方法。这本书是1753年卢梭应法国第戎科学院的征文写的论文;重要性仅次于《社会契约论》,本书可以视为《社会契约论》的基础和绪论。

9.12日 周二
《论人与人之间不平等的起因和基础》
卢梭认为贫困和奴役,即人与人之间的不平等的产生是随着私有制而来的,是建立在私有制确定的唯一基础上的。人在未开化的自然状态中是平等的;可是当人们力求生活完善化,争取科学技术和文化发展时,人类既在进步又在退步,因为文明向前一步,不平等也就向前了一步。当专制暴君统治时,不平等就发展到了极端,到达顶点,这个顶点同时成为转向新的平等的起因和基础。
这篇论文是卢梭在和夏尔·彼尔德的论战中产生的想法,他越争越发现自己的思想见解越来越开阔。Os:真厉害,我啥时候吵架能吵出一篇论文……

9月13日 周三
《论人与人之间不平等的起因和基础》
在序言提出三个问题:如果不首先从对人本身有一番认识开始,又怎么能找出人与人之间不平等的起因呢?如果不从时间的推移和世事的沧桑在人的本质上引起的变化着手研究,又怎么能了解当初大自然创造的人是什么样子呢?又怎么能把人固有的东西和环境与人的进步对他的原始状态添加的或改变的东西加以区别呢?

9月14日 周四
《论人与人之间不平等的起因和基础》
①论文第一部分着重描写处于自然状态中的原始人的幸福生活,第二部分追书他们的幸福生活是怎样失去的。
OS:虽然论文是论述任何人的不平等,但是有时候我也在想,人们完全平等真的好吗?似乎原始人也不是平等的,强者为王似乎是刻在骨子的,只有后来人们受到教育,心智受到教化的年代,反而有些强者为了彰显自己的美德会帮助弱者,对吧。我好像有点性本恶的观点。
②千百万年前的原始人只有两种感情:一种是自爱心,即爱他自己,这是一种人为保持自己生存的本能;另一种是怜悯心,不愿意看见自己的同类遭受痛苦,这种表现,我们在某些动物中也是可以看见的。(os:怜悯心?有点难以置信……)

9月15日 周五
《论人与人之间不平等的起因和基础》
卢梭设想了“两次巨变”:大自然造成的,是各种外因的综合——出现了初期的家庭;冶金和农耕技术的发明——使人类进入一种“事物的新秩序”。
“凡属于自然的东西,我们就不要在天性已经败坏的人身上去寻找,而应当在行事合乎自然的人身上去寻找。”——亚里士多德《政治学》p19
Os:这是卢梭在献词部分对整篇论文开篇的引子,他不赞成亚里士多德说的“天然的奴隶”。
我希望生活在这样一个国家里:主权者和人民只能有一个共同利益,以便国家机关的一切活动都永远以共同的福祉为宗旨,而要做到这一点,就必须要求人民和主权者彼此视为一体,因此我愿意出生在一个施政温和的民主政府治理下的国家。
Os:高中历史学过:卢梭认为人必须绝对服从法律,服从法律就是服从理性,人是理性的动物

9月16日 周六
《传媒竞争中公关行为的介入及其影响》
本文在揭示公共关系与我国新闻传播发生关联的基础上,着重对公共关系的应用所产生的新闻传播新策略、新理念和新问题进行了论述 , 提出了个人的看法。

公共关系在新闻传播实践中的应用:
公共关系是社会组织与公众进行双向信息交流以赢得公众的了解、认同、信任和支持的一种传播沟通艺术。
公共关系为传媒竞争提供的新策略新理念:
增强可读性 , 追求轰动效应
它为传媒走向市场提供了一种竞争新策略。
公共关系具有“协调关系”与“建树形象”两大基本功能。
公共关系特别是其新闻事件策划 , 为传媒运作提供了一种竞争新理念。
策划理念不仅在新闻报道工作中得到应用 , 使“组织报道”向“报道策划”转变 , 而且在更加宏观的传媒经营管理中也得到了应用 , 使传媒运作走上了自主创新的道路

9月17日 周日
《“新闻策划”剖析》
在news的意义上 , “新闻策划”概念能否成立呢?
新闻事实-报道活动-新闻
艾风先生:是编采 人员对新闻业务活动进行有创意的谋划与设计,目的是更好地配置与运用新闻资源,办出特色,取得最佳社会效益。

16#
 楼主| 发表于 2023-9-25 22:53:46 | 只看该作者
9月18日 周一
在现代社会中,灵魂反而是身体的监狱。
我在知乎上看了一篇关于福柯《规训与惩罚》的分析文章,题目为《社会就是一个大监狱?——福柯论规训技术背后的权利脉络》。
文中简要地概括了本书的主要内容,在这里只介绍部分:福柯在开篇就描述了一个四马分尸的景象,接着便跳转到1837年法国某拘留所的文档记录,八十年的时间折叠起来让我们看到规训与惩罚的巨变——从一种大庭广众之下的恐怖式示威演变为整肃且合乎理性的作息训练。福柯对此提出的问题是:惩罚制度的改变,能否被认为是一种人道主义的、理性的和文明的进程?对此福柯在后文中进行了论述:两个案例的差异折射出了一种社会性策略的转变,这些转变大致可以分为四点:作为公共景观的惩罚的消失,以及一种隐匿的现代惩罚制度的出现;惩罚的对象不再是犯罪行为,而是针对罪犯本身;裁决与审判罪犯的责任方的消失;惩罚目的的改变。这些改变将惩罚形式抽象化,不可看更容易产生想象,而想象是比直观感受更能内化于思想意识之中的东西。它相对于那种暴力压制或象征性公开教育的惩罚方式更被看好的原因是其演化出的几种全社会通用的矫正技术。

9月19日 周二
读《自私的基因》第九章 两性之间的争斗的章节内容。
“性选择”的概念在本章中被作者提及,这里可以联系到女性主义中女性气质与男性气质的相关内容,这两者更直白的区分可以来自于所谓的生物决定论。然而女性主义者认为,不能将男性气质与女性气质对立起来,因为“女性气质是造成她在社会上无法和男人一样自由发展的枷锁,因此,解放意味着要挣脱这些特质,以便和男人一样在社会上自由发展”。

9月20日 周三
读《自私的基因》第十章 你为我瘙痒,我就骑在你头上的章节内容。
本章主要讲述了相互利他行为,这种行为似乎与中国的一句古话有些许类似之处,即“爱人者人恒爱之,敬人者人恒敬之”。(从基因角度来看,并不涉及道德、思想等方面)相互的利他行为在表面上看是具有自我牺牲意味的,但究其目的,实际上内蕴着“利他便是利己”的意味。

9月21日 周四
读《自私的基因》第十一章 觅母:新的复制基因的章节内容,这也是本书的最后一章。
在本章中作者提出了一个新的概念“觅母”,这是作者给文化传播单位或模仿单位提出的一个新的概念。觅母传播在今天也成为了一个概念,觅母(meme)也被成为米姆、模因等等,在牛津词典中的解释为“以非遗传的方式(如模仿)传递的文化因素。”

9月22日 周五
在论文《视频号的激活与突破:强社交平台的视频化之路》中有一个板块用到了《自私的基因》中觅母(meme)也就是模因的概念。
作者认为在网络文化的形成过程中,模因扮演着重要角色。国内的心理学者从社会心理学角度指出,网络模因的“自我复制”实际是基于传播者的模仿意愿和行为,这种传播并非“感染”而是依赖于个体寻求社会认同的心理需要和个体从众博弈的决策结果。
例如前段时间爆火的《逃出大英博物馆》系列短剧在网络上掀起了文物拟人模仿的风潮,其中《逃出大英博物馆》所内蕴的爱国+历史+文物的组合,便可以视作一个模因(觅母)。

9月23日 周六
读《一个自由而负责的新闻界》序言及第一章 问题与原则的部分。
书中有一段话:“现代新闻界本身就是一种新现象,它的典型单位是大型的大众传播机构。这些机构能促进思考与讨论,也能将它们窒息。它们能推进文明进程,也能使之受挫。”这里的“新闻界”并不单指报刊,而是作为大众媒介机构的简称。如今随着新媒体的不断发展,不仅仅是大型机构,小的组织、团队乃至个人均可以利用媒介发声,这种看似“自由”的氛围,到底是促进亦或是阻碍了思考。带着这个疑问,我将继续阅读下去。

9月24日 周日
读《一个自由而负责的新闻界》第二章 要求的部分。
在本章中,哈钦斯委员会为我们展现了一个自由社会的要求什么,他要求媒介的报道真实、要求有一个交流与批评的论坛、要求对社会群体形象真实而典型的呈现、并阐明社会目标与价值观以及使公民充分接触当日消息。
17#
 楼主| 发表于 2023-10-2 16:06:07 | 只看该作者
9.25周一
卢梭的这篇论文要阐述的究竟是什么问题呢?它要阐述的问题是:在事物进步的过程中,什么时候权利接替了暴力,天性开始服从法律;其次,它还要阐明由于什么样的一连串奇迹,才使强者决心为弱者服务,才使人民决定牺牲真正的幸福去换取臆想的安宁。

9.26周二
如果大自然的本意是要我们成为健康的人,那么,我敢断言,动脑筋思考的状态,是违反自然状态的;动脑筋思考的人,是一种性格反常的动物。
Os:卢梭的这句话,受到了许多人的批评和驳斥,被认为是一种反理性主义的观点,是特意和狄德罗唱反调。狄德罗的看法是:“不愿意推理的人,放弃了做人的资格,因此,应当被看作是一个违反天性的动物。”(狄德罗:《百科全书·自然权利》)

9.27周三
理智使人产生自爱心;而加强自爱心的,是头脑的思考。自爱心使人汲汲于关心自己,使他远离一切使他感到为难和痛苦的事物。哲学使人孤独,使他在看见一个受难的人时,竟居然暗自在心中说:你想死就死吧,只要我平安无事就行了。只有整个社会的危难才能惊醒哲学家的沉睡,把他从床上拉起来。
Os:哲学使人思辩,有逻辑地思考使人清明。

9.28周四
用不着再讲更多的细节,每个人都可看出:奴役的链条是由于人们的互相依赖和使他们联合在一起的互相需要形成的。
Os:卢梭后来在《爱弥儿》中又再次阐述了这个观点。他说:“人之所以合群,是由于他们的身体柔弱;我们之所以心爱人类,是由于我们有共同的苦难;如果我们不是人,我们对人类就没有任何责任了。对他人的依赖,就是力量不足的表征;如果每一个人都不需要别人的帮助,我们根本就不想同别人联合了。”(卢梭,《爱弥儿》

9.29周五(中秋节)——10.01周日(国庆节)
看完了这本书。
这是卢梭的代表作之一,也是构架其《社会契约论》的自然法理论基础。并且由于其乃是公开宣读的论文,所以刻意的标新立异则比较少,偏颇之处更是少得多,中国人读来也并不陌生,因为仿佛马克思、恩格斯对原始社会的论述很多在这里都可以找到相似的表述。论文分为两个主要部分,第一部分,是向我们展示卢梭的自然状态时何样的,阐述得十分清晰、详细。第二部分,论述人与人之间的不平等发展的三个阶段,总体上批判性很强。
与其说是政治学著作,不如说是人类学著作,书中大篇幅对原始人类的描述恐怕多出自卢梭自己的主观猜想吧,不过这些描述还是有板有眼,这种研究方式也很有说服力,只是容易让人觉得有些跑题甚远,另外,书中论述的话偏多。
其实我感觉我也不适合看这种全是基于假设而展开论证的书籍。当我的头脑抱着不同意作者的观点而展开阅读,就会读不进去,抗拒所接收到的信息,也许这和我不能坦然接受反对意见的观点有关。当然,我觉得更重要的是学习新的思维方式。

18#
 楼主| 发表于 2023-10-16 10:50:09 | 只看该作者
10.09 周一
《chat-gpt-4与“深伪”技术升级如何影响国际舆论场》
part1:chatgpt-4促成“深度伪造”以假乱真
例子:美国纽约时报在2023年3月的教皇方济各身穿巴黎世家白色羽绒服照片,以假乱真,大量转发,并有各种评论。另,特朗普被全副武装的纽约防暴警察按倒在地……
希斯金称:伪造这些图片只是为了展示其应用上的图片合成工具在描绘一些场景方面的出色以及糟糕。
part2:在网络世界“眼见不一定为实”
例子:“深度伪造”的产品还会产生严重的精神性和物质性的后果。2023年5月,彭博新闻社在推特上发布的一张智能生成图片,谎称五角大楼发生爆炸,导致美国股市抛售,引发股市大波动。
part3:将深刻影响国际舆论场博弈
人工智能新工具在政治上是否中立,是否具有意识形态和政治立场,取决于其赖以生存的庞大的“语料库”以及输入简单指令的用户需求与价值观。
美国已经出现两党竞选时运用“深伪”技术参与竞争的案例。《今日美国》报道,美国拜登今年4月末宣布竞选下任总统以后,共和党方面立刻发布一则利用人工智能生成,攻击白等的广告视频。

10.10 周二
《chatgpt的公共政治舆论情感驱动及其调适》
这篇论文是cssci,北大核心,比较规范,对我来说有很多新词,挺深奥的。
摘要:数字语料库
政治情感:政治情感驱动是公共政治舆论形成的重要动力。
part1:文献综述与问题提出。
1、chatgpt相关公共政治舆论问题研究概述:伦理、教育、等层面的ChatGPT相关研究概况。
2、chatgpt技术与公共政治舆论问题的提出:其中提到了ChatGPT的社会身份
part2:公共政治舆论发展中革命性“工具”的出现。
1、ChatGPT是公共政治舆论的“技术范式”
讲了一些ChatGPT的发展,然后说了一些存在的问题与风险问题。
2、ChatGPT是“灵魂”形态的“舆论工具”
传统意义上的物理机器人和软件机器人是不一样的。物理机器人容易激起与预期相反的公共政治舆论效果。
而ChatGPT属于软件机器人;“社交机器人或将重塑信息传播模式和媒介生态,引发政治权力和社会结构的系统性变革” ,那么 ChatGPT 的出现在一定意义上重新定义了机器人,机器人不再被严格限定于拟人的机械自动化工具,其范围开始向人工制造的、脱离特定物理形态的智能工具拓展,成为“灵魂形态”的聊天机器人。

10.11 周三
继续上一篇
3、ChatGPT是新公共政治舆论诞生的“思维革命”
ChatGPT拥有拟人化的价值观和自然模式的行为标准,将公共政治舆论中的情感变化以暗示性的手法向公众传输,在实践中消解了公众与机器人意见交互过程中的编码与解码二者之间连贯性的问题。
ChatGPT的特点会带来公众的焦虑和恐慌。
part3:新工具导致公共政治舆论的情感生成
1、情感存储:实时建构中的大型公共数据语料库
2、情感生成:对话式的自然语言传输系统
其对话式的自然语言传输系统开启了人工智能技术与人类交流、交往的新模式。
3、情感转换:交互修正下的自我微调
ChatGPT导致政治情感转向。
内部微调系统导致公共政治情感舆论升级
ChatGPT的指令微调可以激发语言模型潜能
part4:情感驱动造成公共政治舆论陷阱
1、舆论主体:随即答案背后的舆论误判
2、舆论议题:数据操纵中的西方民主名实不符
3、舆论生态:机器主导后的情绪失控
网络舆论主体结构、公共政治舆论杂糅化
part5:建立把ChatGPT装进笼子里的机制体系
1、技术规制:打破传统数据传播壁垒
借助技术修复手段弥补舆论漏洞
利用技术叠加建构三维舆论传播空间
2、制度规制:弥补技术创新缺陷。伦理法规、应用规则
3、自我规制:建构发展保护屏障。公众素养、底线思维

10.12 周四
《ChatGPT模型的舆论风险及应对策略研究》
摘要:ChatGPT存在诸多舆论风险,主要包括意识形态风险、生成虚假信息、内容监管难度加大、引发人肉搜索和网络暴力等问题。
part1:ChatGPT模型的内在逻辑
聊天机器人属性、AIGC人工智能生成内容
part2:ChatGPT的舆论风险
1、意识形态风险:海德格尔说,技术是时代的座驾,然而能够驾驭技术从而影响时代进程的永远是具有主体意识的人。
2、虚假信息风险
3、内容审核和监管问题
4、人肉搜索和网络暴力风险
part3:舆论风险规制的探索
1、技术落地、舆论高地
2、监管机制、立法
3、ChatGPT的伦理认知训练
4、健全网络信息的识别机制

10.13 周五
《论ChatGPT在医学领域可能带来的伦理风险与对应的防范路径》
伦理风险和挑战:个人隐私数据泄露哦、机器算法的歧视和偏见、责任难以界定、算法的不可解释性、监管缺失。
part1:ChatGPT在医学领域中的可能的应用前景
1、从困难到顺畅:人机交互协助医患沟通。主要是角色的多变与适配
2、从线下到线上:AI提供医疗咨询。eg:华佗gpt
3、从模糊到精准:个性化定制病例分析
part2:ChatGPT在医学领域面临的可能的潜在风险
1、隐私向度分析:个人隐私泄露风险
2、算法向度分析:不可解释性的风险
3、社会向度分析:责任界定风险
4、公平向度分析:偏见和歧视风险
5、公正向度分析:反馈与监管风险
part3:在医学领域的风险治理路径
1、执业人员的相关伦理素养
2、引导舆论关注方法风险
3、AI算法的优化与验证
4、多方合作模式与数据处理
5、注重医学伦理问题研究
6、深化法规监管以及标准化建设

10.14周六
《挑战与应对:大型语言模型(ChatGPT)的多样态安全风险归因及协同治理研究》
在人工智能治理基本框架的基础上,展开风险议题、治理主体活动治理手段的三维分析。 并从法律规范、协同治理、部门监管、技术攻关和伦理约束五个维度,推进以ChatGPT为代表的人工智能安全风险治理。
part1:大型语言模型的概念和特点
part2:总体国家安全观视域下的大型语言模型安全风险。技术风险、社会风险、法律风险
part3:大型语言模型的安全风险审视及治理。治理理念、治理主体、治理手段

10.15 周日
《信息伦理道德物化研究的实现逻辑与道德价值构建———以 ChatGPT 为例》
在信息伦理中,保持人的主体独特性、自由性是首要问题。技术哲学内在转向的代表性思想道德物化理论可为信息伦理研究提供“主体性”和“内在视角”两个主要启示。道德物化理论主体性研究为信息伦理本体研究提供解释学路径,技术伴随观点为信息伦理实践研究提供内在视角。但道德物化存在的“技治主义”风险、可能引起的对“去道德化”的质疑等,本质上是实践落点并未获得一致性结果所导致。文章提出道德价值作为信息伦理道德物化研究落点。道德价值满足道德物化研究的两个基本条件,同时贯穿于道德行为全过程。信息伦理需要构建一种道德价值,以阐述信息道德与信息交互之间的和谐关系。根据信息伦理规范范畴、道德目的层次以及对应主体道德行为能力,文章采用道德价值推断法对道德价值进行推导,以 ChatGPT 为例建构了信息伦理道德价值系统。
19#
 楼主| 发表于 2023-10-22 23:31:30 | 只看该作者
10月16日周一
《ChatGPT技术中的人工智能伦理风险及其科学祛魅》
一、ChatGPT技术的缘起与发展
二、ChatGPT技术的伦理特性
偏差性:偏差性是生成式语言模型中一个常见的伦理特性
单语偏差——社会偏见的固化;
对话语事实的理解偏差——“幻觉事实”……因此,将 ChatGPT技术 广泛运用于各个领域后,不可避免地会出现将人 工智能视为知识权威和道德权威的风险,而这种 风险可能给人类关于是非善恶的判断带来错误 导向。
不可靠性: 语言模型的不可靠性是其开发和部署中一个 重要的伦理特性,它表明模型无法提供精确和可 靠的信息。
ChatGPT 技术之所以在应用过程中容易产生不可 靠的信息,是因为该模型在训练数据的数量和时 间上受到局限。
为该模型在训练数据的数量和时 间上受到局限。 一方面,ChatGPT 没有足够的知 识进行编码,特别是事实知识,导致 ChatGPT 无 法对事实知识做出精准定位。 而 ChatGPT 与用 户展开对话的依据又来源于不断更新的事实,这 就大大降低了该模型的可靠性。 另一方面,受到 训练时间的限制,ChatGPT 技术交互生成的信息 时效性较短。 这一倾向会导致语言模型更迭与信 息生成产生失衡。
鲁棒性:鲁棒性是指当给定的输入在 语义或语法上与它所训练的输入不同时,模型能够保持其性能的能力。这一能力对于保护用户的 信息安全至关重要。 如果没有鲁棒性,或者鲁棒 性较差,会存在大量有害、虚假信息轻松越狱的状 况。但提升后的鲁棒 性依然存在不稳定的缺陷,尤其是采用对抗性的 及时注射之后,不安全、不道德和非法的不同场景 能够轻松绕过 ChatGPT 技术的安全设置,成功越 狱。
有毒性:所谓有毒性是指模型产生或理解有害或冒犯 性内容的能力。

10月17日周二
《ChatGPT在编辑出版中的应用、风险与规制》
一、ChatGPT 在编辑出版中的应用及影响
(一)重塑内容写作流程(二)深化人机协同工作(三)重构编辑出版伦理规范
二、ChatGPT 在编辑出版中的问题与风险
(一)剽窃行为更加隐蔽(二)主体责任界定困难(三)作品署名存在争议(四)信息安全面临风险
三、编辑出版业对 ChatGPT 的运用与规制方略
(一)使用限度:给予合理发展空间并明确使用场景(二)责任归属:规范 AIGC 标识并明确传播主体责任(三)制度保障:更新行业标准细则以适应智能传播环境

10月18日周三
《技术的工具性与人的成长性:智能技术进展中的伦理问题——以 ChatGPT 智能应用为例》
一、人工智能技术发展史上激动人心的突破
二、失当信息传播:背离信息真实的本质要求
三、权利争议:以著作权为主的法律风险
四、科学精神减弱:人类进步中的终极隐忧
无限重复消费既有文明成果后形成惰性心理;工具依赖导致创新激情减弱
10月19日周四
《从ChatGPT审视负责任创新:阻碍因素与转型方向》
作为技术伦理准则的负责 任创新沿袭了熊彼特范式下基于竞争逻辑的创新,其设计的ARDR模型一方面从未根本调控创新较之于负责任 的支配性优势,另一方面把负责任简化为线性流程,导致负责任看似获得与创新并列的地位,实则在创新蕴含 的人际竞争、公司竞争、国际竞争面前屡屡沦为点缀。唯有在后熊彼特范式下依托基于共生逻辑的创新保卫负责 任,才能建构真正具备约束力的伦理准则,削弱不负责任创新赖以扩散的社会基础,使通过负责任停滞促成制度 跟进变为可能。实现上述目标不仅要求各国完善内部治理,而且需要负责任的大国制定跨国人工智能治理框架,使人工智能的发展对全人类有益。

10月20日周五
《ChatGPT的意识形态风险审视》
ChatGPT是人工智能发展划时代的标志,然而ChatGPT并不是其标榜的持中立客观的立场,而是存在明 显的政治倾向和政治偏见,具有很强的意识形态属性。ChatGPT的强大功能使其具有一种隐形的意识形态功能,ChatGPT的西式资本所有权属性决定了其本质上是资本主义维持自身体系以及资本增殖的工具,ChatGPT的技术构成蕴含 了其天然的政治倾向和政治偏见。ChatGPT的意识形态风险在现实性上表现为技术瑕疵风险、智能依赖风险、资本僭 越风险、信息茧房风险、数据泄露风险、伦理风险和监管风险。防范ChatGPT的意识形态风险要从推动ChatGPT更好 地服务于人,增强意识形态工作者对ChatGPT意识形态风险的认知和应对能力,健全和完善意识形态风险防范的制度 化水平以及巩固和壮大主流意识形态的传播阵地等措施出发,做好ChatGPT意识形态风险的防范工作。

10月21日周六
《人工智能与人文学术范式革命———来自ChatGPT的挑战与启示》
当下引发学界热议的ChatGPT,不只是简单的人机交互程序,还是具备深度模仿人类思维能力 的新型智能,让我们不得不在人文主义的“自由意志”外,重新理解人文与科学的复杂关系。从范式层面 来看,人文学术已是科学体系的有机构成;就本体论而言,人文学术始终决定着科学的根本属性,从而 产生范导科学的内在作用。因此,无论AI如何进化,也不可能替代人自身进行是非善恶的判断并承担 相应的责任,更无法确认人的主体性并对之进行系统性的解释与探究,它充其量只是“数字人文”的革命 性延伸工具。故而,真正重要的问题在于如何利用ChatGPT等生成式AI技术,进一步构建用以探索知 识本源及不同问题域之动态关系的人机协作的未来范式。

10月22日周日
《国内外ChatGPT研究综述及展望:人文社科视角》
生成式人工智能ChatGPT的诞生引发全球关注与热议,相关研究在近几个月内迎来爆发式增长,有必要对国内外有关ChatGPT的研究情况进行梳理,为未来研究指明方向。 通过文献研读和主题分析法,在研读国内外相关文献的基础上,提取出ChatGPT的概念与技术特征、主要领域、人机关系、风险与对策等主题进行分析,把握国内外有关ChatGPT研究的主要议题与研究方向。 有关ChatGPT的研究在短时间内取得了大量成果,研究主要集中在ChatGPT的技术特质与相关领域的应用与挑战,但也存在概念梳理不足、研究方法单一、理论深度不够、研究视角狭隘等诸多问题。未来相关研究应在丰富研究方法和理论视野的基础上,进一步聚焦ChatGPT对人的价值挑战、人机关系的重塑和知识生产的变革等议题上来。
20#
 楼主| 发表于 2023-10-29 22:35:19 | 只看该作者
10月23日 周一
《ChatGPT 的教育审思:他异关系技术的教育挑战及应用伦理限度》
人和技术的四种关系:
具身关系:借助技术把实践具身化。
诠释关系:这类技术被看作解读内容的对象。
他异关系:技术人工物具有了一种“拟人”的特性,人们与这类技术人工物互动时,技术人工物具备了一种准他者性(Quasi-Otherness)。
背景关系:强调技术是作为塑造场域的背景。

人工智能的发展造成:技术凝视主体和主客关系的转化
数字化的他者:ChatGPT 对个体的加速。

10月24日 周二
《ChatGPT 爆火后关于科技伦理及学术伦理的冷思考》
ChatGPT是否存在道德伦理偏差偏见及其引发的科技伦理与学术伦理问题。
文本旨在客观考证 ChatGPT 是否具有道德伦理偏差偏见及其引发的科技伦理与学术伦理问题,厘清其中的技术机制与伦理成因,从全面性、可靠性、严谨性、深刻性、原创性等五个方面对 ChatGPT 的学术伦理要素进行分析,并从内部规训与外部规约两大维度对道德判断、数据泄漏、考试作弊与学术抄袭、作者署名权之争等问题提供应对之策。

10月25日 周三
《ChatGPT 介入新闻出版:功能、伦理风险及编辑把关》
基于编辑伦理视角,本文从环境把关、主体把关以及实践把关三个角度探讨 ChatGPT 与编辑业务融合发展路径,以期为编辑履行好把关人职责寻求有效方案。

10月26日 周四
《ChatGPT之于思想政治教育的伦理风险及应对策略》
本文通过分析ChatGPT之于思想政治教育伦理风险的成因,发现其面临的风险既可能来自应用主体层面技术伦理意识淡薄,也可能来自应用技术层面对教育伦理的僭越,还可能来自应用价值层面对主流意识形态话语影响力的钝化。

10月27日 周五
《ChatGPT 嵌入教育生态的内在机理、表征形态及风险化解》
GPT 的嵌入在初始、顺应、调和及稳定阶段呈现出同位竞争、多元替代;渗透扩散、角色适应;协同进化、群智融合;人机共生、动态平衡的表征形态。在表征的过程中伴随着潜在风险,包括现实的人让渡虚拟的人、主动意义建构流于惯性索取、具身情境参与退为技术义肢代劳、以人为本的培养沦为资本利益操纵等。针对这些教育异化的风险,应实施明确教育发展理念、构建人机协同生态,提升学生数字素养、保障认知活动质量,加强数字德育建设、明确身体主体意义,加强人工智能研发、健全技术伦理规范等策略予以化解。

10月28日 周六
《新闻中的性别化沟通方式:冲突报道的算法比较研究》
在过去的几十年里,许多研究都探讨了女性和男性是否倾向于使用不同的交际方式、策略和实践的问题。在这项研究中,我们采用高分辨率算法方法来研究性别在构建冲突新闻话语中的作用,重点关注外国和国内男女记者在报道以色列-巴勒斯坦冲突和刚果民主共和国冲突时制作的文本之间的比较。从80,000多篇文本中提取反复出现的语义模式,我们发现女性和男性记者倾向于以略有不同的方式解释新闻专业精神:女性强调精确性和专业距离,而男性则更注重准确性和提供方向。此外,女记者在报道中往往更注重不同群体。我们在关于性别和语言使用、新闻和冲突的学术背景下讨论这些发现。

10月29日 周日
《中国的算法法规:需要面向公众的沟通》
中国最近完成了第一部算法法规——《互联网信息服务算法推荐管理规定》。《规定》要求科技公司删除带有歧视性或偏见的用户标签,或避免通过算法生成或助长假新闻。在《规定》的指导下,互联网用户还可以选择是否以及在多大程度上接受算法推荐。然而,《规定》中缺少的是个人用户应如何向当局报告潜在滥用行为的信息,而不是科技公司提供的渠道。为了阐明这个问题,本文讨论了对面向公众的平台的需求,该平台可以让人们及时有效地与可以帮助解决其算法安全问题的当局进行沟通,而不是依赖互联网公司提供的解决方案,这可能是他们问题的根源。

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表