登陆注册
56933400000003

第3章 自动化的下一步:机器决策

“当你不知道该做什么时,智力就是你需要使用的东西。”

——[瑞士]让·皮亚杰(Jean Piaget),生物学家和发展心理学家

识别、洞察、行动

特斯拉正以每小时130公里的自动驾驶模式在高速公路的左车道上行驶。前方右车道上,几辆卡车以每小时90公里的速度行驶。特斯拉离卡车纵队越来越近了。车队尾部的卡车打出了左边的车灯,表示它要变到左边道。这时,特斯拉必须做出复杂的决定:是应该继续以同样的速度行驶甚至加速以确保它能够在卡车变道之前通过,还是应该鸣喇叭警告卡车司机?在这种情况下允许超车吗?还是说特斯拉应该为了安全起见,以增加行驶时间为代价,制动并礼让卡车?当然,只要没有一位激情驾驶的跑车司机跟在特斯拉后两米处,那么刹车是最安全的选择。

几年前,在任何情况下,我们都完全有理由不把这个决定权交给机器。从统计学上来说,这项技术还没有被证明比我们自己坐在方向盘后面更有可能把我们安全地带到目的地,因为我们不仅熟悉交通规则,有丰富的经验与预测人类行为的能力,还有直觉。

然而今天,特斯拉的驾驶员们已经将许多驾驶决策委托给计算机。这并非没有风险。无论是在特斯拉、谷歌还是在像梅赛德斯、奥迪、日产、现代和沃尔沃这样的传统汽车公司,自主驾驶的运行远非完美。这些公司不知疲倦地研发自动驾驶系统,但出于安全考虑,有许多功能都未被投入使用。在天气良好和有清晰标注的公路上,自动驾驶系统显然已经是比人类更好的驾驶员。而在城市里,晚上或在大雾天,自动驾驶系统优于人类驾驶也只是个时间问题。

正如一句老话所说:“对于人类来说很难的事情,对机器来说很简单。”反之亦然。在每一次驾驶的过程中,计算机都有成千上万个小且复杂的决策要做,而这对于以前的计算机来说是不可能的任务。为什么现在情况改变了?从抽象的角度来说,答案是:因为从可控硬件中学习数据的软件已经越来越熟练地掌握了识别、洞察和执行这个三角系统。

在上面特斯拉和卡车的例子中,不仅特斯拉所配备的GPS导航、高分辨率照相机、激光和雷达传感器能精确地告知自动驾驶系统汽车的位置、卡车的行驶速度、道路状况及右边是否有紧急通道,该系统的图像识别软件还可以可靠地识别出闪烁的灯是卡车的转弯信号灯,而不是远处建筑工地上的灯。计算机在过去的几年里已经获得了识别事物的能力。如今最好的计算机已经能区分出地面上的物件是汽车能安全碾过的碎纸还是它需要绕行的石头。

所有的视觉(和其他感官)数据流入一个小型的超级计算机,也就是汽车的人工大脑。它是由许多计算机中央处理器和图形处理器组成的。处理器必须以秒为单位对信息进行排序,同时将实时数据与先前收集的数据、已编程到系统中的规则同步。特斯拉系统知道在这种情况下它有通行权。交通规则规定,卡车司机只有在没有车辆从后方接近的情况下才允许变道。通过对几十亿英里的道路交通信息——反馈数据——进行学习,自动驾驶系统得到了加强,它甚至知道卡车司机并不总是遵守交通规则。它知道,尽管特斯拉正从后面驶来,卡车还是很有可能会变道。它也知道,如果一辆自动驾驶汽车冒着发生严重事故的危险坚持遵守交通规则,是不符合乘客最大利益的。

自动驾驶系统根据观测到的情况、编程规则和以往的经验,在许多可计算的场景中推断出避免事故的最佳选择,同时仍然带领特斯拉快速前进。在本质上,这是一个认知决定,一个对行动方针的选择。这个问题的最佳解决方案其实是一个基于许多变量的概率计算。

而部分自动辅助驾驶系统仅为驾驶员提供建议。例如,如果卡车不仅发出信号,而且做出小的转向运动,那么辅助驾驶系统会通过发出“哔”声警告并指示驾驶员将方向盘打向左边。人类驾驶员则可以选择遵循系统的建议或忽略它。但是一个真正的自动驾驶系统将直接做出自行的判断并付诸行动。它会控制汽车刹车或继续向前行驶。自动驾驶系统会以非常熟练的方式控制物理机器的功能,如控制油门、刹车和转向。比如飞机的自动驾驶仪在正常情况下比任何头戴机长帽的飞行员都能更精确地控制飞机起飞或降落。又比如在完全数字化系统下用于高频股市交易的机器人会自动执行决策。以上的应用虽然不同,但是它们的自动化原理是一样的:识别数据中的模式,从统计和算法中推断出结论,再通过技术程序将结论变成决定并加以执行。举例来说就是机器在研究市场趋势之后,发现了有利的交易机会,然后帮你点击了“立即购买”。

博兰尼悖论

衡量决策的影响并将其纳入未来决策是人工智能系统本质的一部分。人工智能系统是基于反馈做出决定的。如果特斯拉在上述的决策下发生了事故,它会将事故作为反馈传送回中央计算机,那么所有其他特斯拉将(希望如此)在类似的情况下更谨慎地驾驶。相似的,如果用于批准贷款的AI软件发现很多贷款人有违约的情况,它就会提高申请者的贷款标准;如果一个水果收割机收到其采摘的苹果有很多没熟的反馈,那么在下一次作业时,它将会调整苹果表面红绿色的比例,以做出更好的采摘决定。人工智能和传统IT系统的本质区别在于人工智能能够独立改进自己的算法并对结果进行评级。自动校正是内置在AI系统中的。

自20世纪40年代第一台大型计算机问世以来,计算机编程意味着人类需要耗费大量精力将理论模型输入机器之中。而该模型包含机器可以应用的特定规则。如果人类向机器投喂特定任务或问题的数据,那么它通常能比人类更快、更精确、更可靠地解决这些问题。这令人印象深刻。但本质上,经典编程就是将现有知识从程序员的头脑中转移到一台机器上。但是这种技术方法有一个自然的限制:人类的大部分知识是隐性的。

比如,人类可以识别出面孔,但不知道自己是如何做到的。进化赋予了人类这种能力,但是我们没有很好的理论来解释为什么我们能够瞬间识别安吉拉·默克尔(Angela Merkel)或乔治·克鲁尼(George Clooney),即使在光线很差或是人脸被遮住了一半的情况下,我们也能识别。比如要精确地向孩子描述滑雪和游泳的最佳方法几乎是不可能的。还有一个有关隐性知识的著名例子是:什么是色情?美国最高法院大法官波特·斯图尔特(Potter Stewart)想为其找到一个在法律上无懈可击的定义,却始终没有成功,只找到一个令人失望的答案:“我看到它就知道是不是色情了。”这个问题有一个名字:博兰尼悖论。它描述了一个以前软件程序员无法逾越的极限:没有理论,没有规则,我们就不能把知识和能力传授给机器。

人工智能则克服了博兰尼悖论——人类只创造机器学习的框架。人工智能各流派在此概念下发展出来的方法和途径不计其数。但是他们中的大多数,其中包括最重要、最成功的那些流派,遵循的基本原则都是只给计算机目标,而不是理论和规则。计算机通过许多例子和反馈,学习如何在训练阶段达到人类设定的这些目标。

在这个背景下,人们经常讨论的一个问题是反馈回路中的机器学习在实际上是否是智能的。许多人工智能研究者并不是特别喜欢“人工智能”的概念,而更喜欢用“机器学习”这个词。

强弱人工智能

1955年,在著名的达特茅斯会议上,马文·明斯基(Marvin Minsky)与一众计算机先驱们发明了“人工智能”这个概念。此后,这个概念一直备受争议。即使今天,科学家们仍然没有就“人类智能”的构成达成共识,那么“人工智能”这样的概念是否能用于机器呢?关于人工智能的讨论很快就转向了其基本问题。例如,没有意识的思考是否存在,机器是否很快就会比人类更聪明,机器是否会聪明到自行迭代,变得越来越智能,甚至发展出自我意识及喜好?如果是这样,我们是否必须授予有自主思维的机器以人权?或者人类和机器是否会融合,形成超级人类,将人类进化提升到下一个阶段?

这些关于强人工智能(或称为广义的人工智能)——有强认知的、像人类一样的AI——的问题很重要。对这项技术将带来的长远影响的思考应该与技术的发展同步进行,就像我们对待核武器那样。本书的最后一章将谈到这些问题。不过,这些担忧还离我们很远。更紧迫的是“弱人工智能”这个议题,包括那些今天在技术上就已经可以实现的弱人工智能,以及在可见的未来会出现的弱人工智能。那么首先,我们需要搞清楚什么是弱人工智能(狭义的人工智能)。

美国语言哲学家约翰·罗伯特·塞尔(John Robert Searle)在40年前就提出了强弱人工智能的区别。目前,强人工智能还只存在于科幻小说中,而弱人工智能已然存在于计算机系统中,并处理着各种直到最近我们还以为只有人类大脑才能处理的任务。弱人工智能通常涉及经典的知识性工作任务,例如审核保险公司的案卷或写作新闻或体育报道。

人工智能嵌入到物理机器中,不仅能使汽车智能化,而且能使工厂、农业设备、无人机及救援和护理机器人智能化。我们常常将它与人类行为比较,试图找到两者的相似之处,但其实智能机器完全不必模仿人类完成任务的方式或人类大脑中任何意义上的生化过程。它们通常具有自主搜索数学解析路径、改进已有算法,甚至独立开发算法的能力。结果是机器比人类做得更好、更快,也更便宜。在解决问题方面,如果机器比人类更优越,机器系统的普及速度就会更快。然而,正如数字革命的传教士所宣称的那样,根据数字拷贝不花费任何成本的原则,这不会以零边际成本的情况发生。数字技术很贵,这一事实在短时间内也不会改变。如果你对这一事实存有疑虑,你可以去询问任何一位首席信息官。但事实证明,新技术的引进和传播周期正在缩短。

人类对于文明的态度将加速或减缓创新被接纳的速度。正如当前的机器人在欧洲是敌人,在美国是佣人,在中国是同事,在日本是朋友。但从长远来看,投资回报率才是影响全球对机器人态度的关键。而收益通常是以金钱衡量的。当亚马逊在市中心设立无人售货的小商店时,相机、传感器和射频识别芯片会自动计算购物车里商品的总价。虽然亚马逊需要在自动化货架和收银机系统上投资数百万美元,但在人事成本上它却节省了数百万美元,于是它在之后的某月或年中就可以收回成本。但是,如果纽约基因组中心能够在10分钟内用IBM Watson应用程序分析患者的遗传物质,以便提出可能成功的治疗方法,而高水平的医生需要160个小时进行同样的分析,那么这时机器人所带来的回报就不是以美元计算了,这时候的衡量标准变成了被挽救生命的数量。

“人工智能将像电一样改变世界。”这句话出现在许多关于人工智能的文章和研究中。在技术范式转变的时代,专家——尤其是乐观派——在做出有关人工智能的预言时应该谨慎。如果没有根本性的变化,以过去的数据预测未来的可靠性最多只有50%。

在这方面,数字化本身就产生了一个有趣的悖论。更多的数据和分析提高了人们对未来的预测能力。但是数字技术的破坏性造成了不可预知的变化。然而,我们仍然坚持这样的假设,即智能机器将在未来20年从根本上改变我们的生活、工作、经济和社会。如果把从数据中学习的系统看作一种跨界技术,那么将之与电类比是正确的。和内燃机一样,塑料、互联网的发展都在多个领域产生了影响,同时也为那些我们甚至在今天都无法想象的新创新的出现和影响创造了先决条件。

电力使得高效的火车、装配线、图书馆照明、电话、电影工业、微波、计算机和电池驱动的火星漫游者在崎岖的地表上的探索任务成为可能。我们无法想象没有电的现代生活。今天,没有人知道人工智能这种跨界技术是否会产生类似的巨大影响。斯坦福大学教授、谷歌和百度AI团队的前负责人安德烈回答了人工智能将影响哪些领域的问题:“可能思考AI产业将不会改变什么比思考AI产业将会改变什么更容易。”这不再是对未来的陈述。它描述的是现在,包括积极的方面和令人不安的方面。

对机器的愤怒?

今天没有人能够可靠地预测人工智能系统是否将毁掉人类的工作,或者在下一波热潮中是否会创造新的工作,就像没有人能可靠地预测早期的技术革命所带来的影响一样。19世纪早期反对机器的勒德分子用大锤击碎了英格兰中部的第一台机械纺织机。对机器的愤怒曾使人们想要摧毁任何可能毁掉人类本身的东西。但愤怒毫无用处。虽然生产力和国内生产总值迅速上升,但对他们来说,工作条件却日益恶化。几十年后,自动化投资的回报率才以更高的工资和更好的社会安全网的形式惠及子孙后代。机器的破坏者成为经济和社会巨变中迷失的一代。古典经济学家大卫·里卡多(David Ricardo)将其总结为“机械问题”(machinery question)。历史学家罗伯特·艾伦(Robert Allen)用文学术语“恩格斯停顿”(Engels'Pause)来形容从1790年到1840年的工资停滞。

从长远来看,对于机械问题我们已经找到了令人满意的答案,那就是进步。在农业上,虽然联合收割机取代了农民,但工业化不仅创造了制造联合收割机的机械师的职业,还制造了大量的簿记员,后来又需要大量的营销专家来向客户介绍产品。这些产品由于工厂的规模经济而变得越来越低价,同时质量却越来越高。

乐观的研究者和政治家们希望人工智能也会有类似的发展路径和结果——当然是以更快的速度,而且没有“恩格斯停顿”。他们认为自主学习的计算机系统将在未来几年提供相当可观的生产力和GDP增长,因此个人、公司和社会就能更多地投资于教育和更好的工作。在一项研究中,埃森哲(Accenture)计算出,由于人工智能的出现,到2035年美国GDP可以以每年4.6%的速度增长,这几乎是无人工智能情况下的两倍。在德国,到2035年其GDP年增长率应该能达到2.7%,几乎是现在的两倍以上。日本政界将人工智能视为处理本国劳动力短缺问题的机会。他们相信人工智能和机器人最终会把这个国家从顽固的滞胀中解救出来。

中国通过人工智能实现经济增长的前景最为光明。因为中国拥有开发和使用人工智能的所有重要组成部分:资本、廉价的计算能力,以及从美国的大学及初创企业涌回中国的智慧头脑,而中国的大学也在培养越来越多的人才。最重要的是,中国拥有的反馈数据就像沙特阿拉伯的石油储备那么丰富。世界上大约一半的互联网数据来自于人口数达14亿的中国,由移动消费设备从他们身上收集的数据对于人工智能系统尤其有价值。从纯粹的经济角度来看,中国有机会进一步加速成为经济超级大国,从而带领数百万人摆脱贫困。

与乐观派持相反意见的是一大批劳动力经济学家。他们计算出有大量的人类活动可以由人工智能代替完成。根据他们的悲观预测,巨大的规模经济和网络效应带来的低成本将导致全球大规模失业。2013年,牛津经济学家迈克尔·奥斯本(Michael Osborne)和卡尔·本尼迪克特·弗雷(Carl Benedikt Frey)计算出美国约有一半的工作会受到严重威胁。他们的同行经济学家对这项研究的方法提出了严重质疑,但它在世界范围内还是引发了一场争论。因为他们同时还天真地提出,被第三次自动化浪潮淘汰的人只需要一点点善意及政府的再培训计划,就能迅速找到新的好工作。今天美国和欧洲的许多人都认为数字化正在把劳动力市场分割成良好的工作和糟糕的工作两块。对于受过高等教育的数字化赢家,尤其是对于那些创建和操作数据资本主义工具的人来说,工作是令人愉快的,并且收入颇丰。其他人则不得不在雨中送快递。

这个画面当然有夸大的成分,而今天的情况是:人工智能和机器人的加速应用肯定会影响就业率,但是到底会产生何种影响,目前还尚未清晰。所有的预测,无论乐观或悲观,都还无法完全自圆其说。我们根本无法估计下一代AI系统将如何接管各种任务,或者将如何动态扩张。做出可靠预测的难题就在于其本质上是一个速度问题。人工智能越快将触角伸向人类工作场所,人们调整个人资质和集体安全系统的时间就越少。那么新一代人类就可能在自动化面前败下阵来。尽管预测中充满了不确定性,但可以确定的是,全世界的政客们已经找到了稀少的还算明智的答案来应对下一波自动化浪潮的挑战。但是,我们还没有做好解决“机械问题”的充分准备。

机器的瑕疵

对于人类来说,更紧迫的问题可能是:未来是否会出现一个这样的“超智能系统”,它能够自主地在反馈回路中计算勾画出一个更好的世界和它自身的形象?牛津大学未来人文研究所所长尼克·博斯特罗姆(Nick Bostrom)称这是一个将把人类“从最高思考者的位置上驱赶下去”的人工智能系统。结果就是人类将无法控制这个超智能系统。那么,这种超智能系统会不会像科幻小说中那样反抗人类,最终灭绝人类呢?

我还是快点告诉你个好消息吧:就目前来说,人工智能系统还不会奴役人类。没有人知道计算机在未来200年内能发展到什么程度,但起码我们知道,计算机科学家还不知道任何可能导致超级人工智能的技术途径。于是,世界末日又被推迟了。人工智能系统存在内在弱点,使得它们容易做出错误的决策,这限制了它们的使用。但我们还是要时刻保持警醒,因为人类有责任不断批判性地看待它们的算法。

令人吃惊的是,人工智能系统的弱点与人类的非常相似!比如,和人类一样,人工智能系统的神经网络也会有偏见。这些偏见不是由软件开发人员编写的,而是隐含在训练数据中的。如果人工智能支持的贷款发放过程根据训练数据的结果,认为少数民族或53.8岁以上的男子或戴黄头盔、有一辆8速自行车的人偿还贷款的可靠性较低,它就会把这种判断纳入评分模型中,而不管这种判断是否荒谬或是否合法。

我们人类知道要对种族主义提高警惕,并且可以加以纠正。但人工智能系统不会这么做。比如曾经有个AI系统可以帮助美国法官决定是否可以提前释放囚犯,该囚犯重犯的风险有多高,但人们却怀疑这个系统让非洲裔美国人和西班牙人处于不利的地位。这个系统因此成为具有内置偏见的人工智能系统的教科书范例。未来,我们可能需要较长的时间识别机器的偏见,或根本识别不出来。谁能想到一台机器会歧视戴着黄色头盔的自行车骑手,并因此做出荒谬的决定呢?

自动化决策系统(ADM)的开发人员已经开始寻找解决机器偏见的技术方案。例如,IBM在2018年9月发布了一个开源工具包,用于检查机器学习模型中的偏见。这个应用程序被称为“人工智能公平360”(AI Fairness 360)。而更多的此类应用也将在未来出现。开发人工智能的公司知道,人们是否能够接受人工智能系统在很大程度上取决于人们对它们的信任,因此人工智能系统不仅要做到公平公正,还要给与我们充分的理由去信任它们。

未来将会继续有许多声音要求为AI系统内置一个申辩功能。如果一台机器为某个病人推荐一种特殊的化疗,那么它不是仅仅像颁布神谕一样简单地说出它的建议,而是需要向主治医师证明它是如何确定这是最佳解决方案的。这种貌似合理的解释功能已经初具雏形,但还存在一个基本问题。

机器在神经网络中的学习过程是数百万个连接的结果,并且它们中的每一个都会对结果产生细微的影响。因此,决策过程非常复杂,以至于机器无法向人类解释或展示它是如何得出这个“可信”或“不可信”的结论的。这简直就像是科技史上的一个笑话。现在,受“博兰尼悖论”影响的不再是人类,而是机器,因为机器知道太多无法向人类解释的东西。这意味着,即使人类注意到人工智能系统犯了错误,也几乎不可能对其进行纠正。机器无法告诉人类错误来自哪里,因为它自己也不知道。

因此,对于“博兰尼悖论”的大逆转,人类只能回到启蒙运动的起点去找答案:我们必须批判性地审视机器所告诉我们的一切。启蒙运动转向理性和科学,为查尔斯·巴贝奇(Charles Babbage)在18世纪中叶构想出第一台计算机,以及康拉德·祖斯(Konrad Zuse)在一个多世纪后建造第一台可编程计算机奠定了基础。大约在25年前,蒂姆·伯纳斯—李(Tim Berners-Lee)将计算机连接成全球网络,将巨大的数字机器变成了人类有史以来最强大的工具。现在机器正在学习如何自主学习——我们需要与他们保持更远的距离。

我们必须搞清楚在哪些情况下机器辅助对我们有用,在哪些情况下又会阻碍我们的思维。我们必须学会与所谓的“超级假货”(deepfake)共存。它们可以让一个人模仿另一个人的声音,或者把一个人的头放在另一个人的身体上。但是我们必须要警惕,人工智能算法可以通过在社交媒体上精心安排帖子来左右人们的思维,从而颠覆我们的民主。全世界的政治家和公民都应该密切关注军方对人工智能武器的开发和应用。立法者,而不是军人,应该考虑当机器自动开枪时所触发的所有伦理问题。智能机器的开发者在用人工智能系统做杀人武器的时候,一定要三思而后行。(2018年6月,谷歌拒绝与五角大楼续签一份合同,因为这份合同令许多参与人工智能研究的员工异常愤怒。)

但是恐惧不应该遮蔽我们的双眼,让我们对人工智能的好处视而不见。决策自动化为社会的个人、组织和社区提供了巨大的机会。但是随着机器能做出越来越好的决策,我们人类就越来越需要集中精力思考:我们要把什么样的决策权委托给人工智能。因为即使在用人工智能进行自动决策的时代,人类仍然希望决策能带来幸福,但这对计算机来说没有意义。机器永远感觉不到什么是幸福。

同类推荐
  • 侵华日军罪行图录:九十位幸存慰安妇实录(谷臻小简·AI导读版)

    侵华日军罪行图录:九十位幸存慰安妇实录(谷臻小简·AI导读版)

    一部关于第二次世界大战期间日本侵略军从军慰安妇制度,以及90位受害幸存者的血泪历史叙述。全景式地记录了中国各地目前被发现的几乎所有幸存的日军性暴力受害者,以及韩国、朝鲜部分受害幸存者。
  • 超级恐龙之谜

    超级恐龙之谜

    本套书主要介绍古今中外关于人类诸多未解的社会、自然现象,包括《中国自然遗产之谜》、《星球宇宙之谜》、《巨兽异兽之谜》等20个分册。
  • 历史(谷臻小简·AI导读版)

    历史(谷臻小简·AI导读版)

    一本通过介绍中国起源朝代发展与各种神话人物名人故事的书。四大古国之一,中国起源及历朝代的兴衰演变,历史竟然是这样的……
  • 跑鞋:知道这些就够了

    跑鞋:知道这些就够了

    您喜爱跑步吗?若是,那就离不了跑鞋。可是您对跑鞋知道多少呢?本书介绍了有关跑鞋的方方面面必须了解的知识,让你挑选、使用跑鞋不再盲目。
  • 中外帝王未解之谜

    中外帝王未解之谜

    帝王们的性情、脾气、性格、才华、手腕也是形形色色、丰富多彩的,有明君、暴君、昏君、庸君……他们的兴趣、爱好更是五花八门、光怪陆离,有喜欢做和尚的君主,有喜欢当木匠的皇帝,有喜欢吟诗作赋的皇帝,有喜欢书法绘画的皇帝,当然也有以杀人、折磨人为乐的帝王……他们之中有可恨、可耻之人,也有可爱、可怜之人,当然他们也是神秘不可莫测之人。
热门推荐
  • 青春里的那些杂事

    青春里的那些杂事

    “青春”这两个字你们是怎么理解的本书讲述一个女生的整个青春
  • 仿佛听到了大海的声音

    仿佛听到了大海的声音

    我去了大海,在海边上听的声音是格外的不一样……
  • 给祁先生的情书

    给祁先生的情书

    一觉醒来我已婚了o(≧v≦)o?????结婚十年她偷偷写了一封情书记下这些年的点点滴滴谨以此文献给我的先生
  • 戈乱:皇帝不在的秋天

    戈乱:皇帝不在的秋天

    本书是作者以现代理念叙述历史史实的新历史小说。故事取材于明代中期,皇帝风流,宦官当权,藩王企图重演明初的清君侧故事。当画家寅、行者归无骥、刺客利苍,几乎在同一时刻来到南都,世袭的南都的帝国亲王正策划发动宏大的武装叛乱,他被一把灌注了前世符咒般隐秘欲望的古老宝剑所折磨。那把宝剑在梦中对他进行了精神阉割。画家是来为王妃绘画的,他爱上了美丽的王妃。刺客是来行刺王的,他反被行者作为了刺杀的对象。王者的最贴身的武士和最亲密的情人恰是最危险的朝廷卧底者。
  • 一觉睡成仙人

    一觉睡成仙人

    究竟是做梦,还是穿越了?一辈子和一场梦有什么区别?一觉睡醒了,竟然成了仙人,但却是最底层的小修士。不过没关系,历史的车轮从这一刻转动了!从此江山美人在手,金银财宝我有。仙丹灵药下酒,神仙妖怪做狗!(小子,睡醒了没有,醒了赶紧去搬砖!!!)呵呵,说什么呢,我不跟你一般计较,今天你对我爱理不理,明天我让你高攀不起!哥就是这么自信!不说了,赶紧去搬砖,搬完好去找女修嗨皮一下!
  • 佣兵狂妃

    佣兵狂妃

    她是无所不用其极的庶出小姐,其实是穿越而来的雇佣兵,为保性命,什么事情都可以做。他是倾国倾国的清俊男儿,其实是权势滔天的景亲王,为守皇权,任何人都可以利用。只不过,他不是目中无人、高高在上的王爷么,怎么……景亲王半敞衣衫,有气无力“义妹,为兄胸口疼。”宫云乔搬起石头,“兄长,妹妹替你砸一砸。”景亲王举镜自照,孤影自怜,“为兄这般貌美,你怎么就看上那个缺牙的?”宫云乔的眉角抽了抽,“兄长,那只是个婴孩。”景亲王手提血淋淋的长剑,却是对她柔柔一叹,“放心,血是不会溅到你身上的。”宫云乔低头一瞧,白衫染尽鲜红,早就溅了血。人前清高、狠辣的景亲王,其实你是人格分裂吗?这不是种病吗?
  • 邪王的懒妃

    邪王的懒妃

    懒人系列终回本:常言,偷得浮生半日懒。当不能偷得浮生又想懒时怎么办?当然是光明正大地懒啦!从小懒到大的庄书兰就是这样想的!当前世成为记忆时,庄书兰更是决定将这懒人做到底。管他冷嘲热讽也好,闲言碎语也罢,她庄书兰不会因此而改变!且看懒人如何笑傲官场沉浮,冷看朝野纷乱!————情景一:“美男,来,给本姑娘笑一个!”一手托起某男精致的下巴,拇指轻刮着脸颊,“啧啧,这肌肤,比姐姐我的还要好!哎!平日里用的是哪个牌子的保养品啊?”……某男呆状,第一次有种叫耻辱情绪袭上了心头——他居然被一个还未并笄的小女孩子给调戏了!情景二:“跟了本宫,他日你就是一国之母,光宗耀祖!”某男拦下某女,半带着威胁地喝着。“光宗耀祖这件事,不归臣管,你去找别人吧!”轻弹去不知何时落在肩膀上的树叶儿,微微一笑,“时辰不早了,臣得回府休息了!”情景三:“你想从这游戏中退出?”媚眼一抛,却让人不寒而颤。“我还有权力说不吗?”某女惨淡一笑,带着狡黠,“既然是你将我带入这游戏中,你怎么可以置身事外?所以,我们成亲吧!”情景四:“……新娘请下轿!”第一声,无人答应……“请新娘下轿!”第二声,还是无人答应……“请新娘子下轿!”直到第三声时,轿里忽地传来慵懒的声音,“呀!我怎么睡着了?四儿,现在什么时辰?为何迎亲的轿子还不来?”————〖精采多多,敬请期待。〗————懒人系列:总裁的懒妻帝君的懒后懒凰天下风流佳人系列:风流女画师新坑:轻松+现代+都市+网游+青梅+竹马=恋上恶男友情链接:逍遥王爷的穿越妃本色出演绝焰煞神
  • 此女有毒:邪王别跑

    此女有毒:邪王别跑

    “娘子,从我进门开始就这般豺狼似火的看着为夫,可着实让为夫把持不住啊!”说着,离暮将萧习揽入怀中,准备一吻芳泽。却不料遭到萧习伸手痛打,“说!今日去见了谁?”“我……娘子……你听我解释啊!”萧习撇头,挣脱开了离暮的怀抱,不再理睬。“习儿,本王错了还不行吗?”“习儿,本王拿了你最爱吃的瘦肉粥。”离暮沉默,没有再开口。萧习一边摆弄着自己的手指一边漫不经心的等待着离暮再次开口,却迟迟不见离暮开口,萧习咬了咬嘴唇,一狠心开口道:“今夜罚你睡书房……”话还未说完,离暮看见自家娘子端起桌上的粥,细细的品着,每一个动作似是对离暮的挑衅。想着一把将萧习横抱,“为夫,今夜要和娘子一起罚睡书房!”
  • 古风潇湘令

    古风潇湘令

    潇湘潭烛残影深,清婉悠月云烟过。情深义重置心玉,万劫不复存。那天晚上,彻夜的雨浇的人心烦意乱,我颤抖着双手,泛黄的镜子在昏黄的烛光下将我的脸照的失去血色,我读懂了那是悲哀,那是苦楚。黄泥覆面,从此容貌不复,残乱世间,脱身亦乏,身前无人照应,唯有疲倦应尘寰千丈,以微薄力,自贬失心,但求清静。你知道吗。灯芯会晃动,会燃烧,会一点一点变得焦黑,会最后燃尽,被夜间黑暗包裹着,最后的灰烬随风飘荡而去,无人怜惜。可是,我突然意识到也是有人会在我的身后,注视着我,帮我擦拭掉伤痛和困苦,帮我一起承担,帮我一起肩负起悲怆。其实如果我想要离开,那几乎什么都抓不住的力气,我只需要再往前走一步,只要一步就好。只要一步就能挣脱这温柔的海洋,只要一步就能拥抱自由。但是,我回头了。我也清楚的知道,我回了这个头,就再也走不了。“潇湘,你忘记拿玉佩了。”她独步踏入这场纷乱的大局,再也不回头。
  • 游戏王之集结五决斗王

    游戏王之集结五决斗王

    决斗王集结,开启决斗盛宴,让我们一起决斗