$
https://finance.eastmoney.com/a/202411143238806736.html11月13日,财政部、税务总局、住房城乡建设部发布《关于促进房地产市场平稳健康发展有关税收政策的公告》,相关税收政策包括加大住房交易环节契税优惠力度;降低土地增值税预征率下限;以及明确与取消普通住宅和非普通住宅标准相衔接的增值税、土地增值税优惠政策。
$
https://finance.sina.com.cn/world/2024- ... 0982.shtml电视主持人做国防部长 特朗普的特立独行让美国盟友惊异非常
=================
我觉得很符合特朗普的执政理念:不管闲事,maga第一。当今之美国跟它鼎盛时候比确实差点儿意思,但放眼世界,有哪个国家敢侵略美国,以致于它需要国防?!
$
https://wallstreetcn.com/articles/3733989不止OpenAI“猎户座”!谷歌和 Anthropic AI模型开发也被爆遇瓶颈
报道认为上述三家公司开发AI模型面临多重挑战,他们越来越难以找到尚未开发的高质量人造训练数据。例如猎户座的编码性能未能令人满意就部分源于缺乏足够的编码数据进行训练。即使是适度的模型性能提升也可能不足以证明,打造和运行新模型的巨大成本合理,或者无法满足重大升级的期望。
AI模型开发瓶颈的问题挑战了被很多初创甚至科技巨头都奉为圭臬的定律Scaling law,也让AI大举投资即实现通用人工智能(AGI)的可行性遭到质疑。
华尔街见闻曾提到,OpenAI早在2020年就提出的该定律是指,大模型的最终性能主要与计算量、模型参数量和训练数据量三者的大小相关,而与模型的具体结构(层数/深度/宽度)基本无关。今年7月微软的首席技术官(CTO)Kevin Scott还为这个定律辩护,称Scaling law仍适用于当前业态——在扩张大模型的同时,边际效益并没有递减。
==========================
且不说算力和能耗的约束,就是人类知识总量也不够造的了,人类有点文化的阶段最多五百年,其中还有很多没有数字化,还能有多少油水?何况经各种大模型“污染”,以后干净的数据会越来越少。就像CT机等需要的低本底辐射钢已经没法生产了,智只能靠打捞二战时沉船的应急一样。今后GPT模式的快赢机会越来越少了,要创造新知识,要提高新智力还得靠模型自己推理和搭建知识体系了。