谁知道数据管理方面的知识?
数据管理 目录 1定义 2管理阶段 一,人工管理阶段 二,文件系统阶段 三,数据库系统阶段 3面向应用 面向数据应用的数据管理概念 面向数据应用的数据管理对象 4反洗黑钱 5AML AML 程序中用于比较的字段 1定义 数据管理[1]是利用计算机硬件和软件技术对数据进行有效的收集、存储、处理和应用的过程。其目的在于充分有效地发挥数据的作用。实现数据有效管理的关键是数据组织。随着计算机技术的发展,数据管理经历了人工管理、文件系统、数据库系统三个发展阶段。在数据库系统中所建立的数据结构,更充分地描述了数据间的内在联系,便于数据修改、更新与扩充,同时保证了数据的独立性、可靠、安全性与完整性,减少了数据冗余,故提高了数据共享程度及数据管理效率。2管理阶段一,人工管理阶段20世纪50年代中期以前,计算机主要用于科学计算,这一阶段数据管理的主要特征是:(1),数据不保存。由于当时计算机主要用于科学计算,一般不需要将数据长期保存,只是在计算某一课题时将数据输入,用完就撤走。不仅对用户数据如此处置,对系统软件有时也是这样。(2),应用程序管理数据。数据需要由应用程序自己设计、说明和管理,没有相应的软件系统负责数据的管理工作。(3),数据不共享。数据是面向应用程序的,一组数据只能对应一个程序,因此程序与程序之间有大量的冗余。(4),数据不具有独立性。数据的逻辑结构或物理结构发生变化后,必须对应用程序做相应的修改,这就加重了程序员的负担。二,文件系统阶段20世纪50年代后期到60年代中期,这时硬件方面已经有了磁盘、磁鼓等直接存取存储设备;软件方面,操作系统中已经有了专门的数据管理软件,一般称为文件系统;处理方式上不仅有了批处理,而且能够联机实时处理。用文件系统管理数据具有如下特点:(1),数据可以长期保存。由于大量用于数据处理,数据需要长期保留在外存上反复进行查询、修改、插入和删除等操作。(2),由文件系统管理数据。同时,文件系统也存在着一些缺点,其中主要的是数据共享性差,冗余度大。在文件系统中,一个文件基本上对应于一个应用程序,即文件仍然是面向应用的。当不同的应用程序具有部分相同的数据时,也必须建立各自的文件,而不能共享相同的数据,因此数据冗余度大,浪费存储空间。同时,由于相同数据的重复存储、各自管理,容易造成数据的不一致性,给数据的修改和维护带来了困难三,数据库系统阶段20世纪60年代后期以来,计算机管理的对象规模越来越大,应用范围有越来越广泛,数据量急剧增长,同时多种应用、多种语言互相覆盖地共享数据集合的要求越来越强烈,数据库技术边应运而生,出现了同意管理数据的专门软件系统——数据库管理系统。用数据库系统来管理数据比文件系统具有明显的优点,从文件系统到数据库系统,标志着数据库管理技术的飞跃。3面向应用前面讲到数据管理经历了人工管理、文件管理、数据库管理等三个阶段,主要是利用计算机硬件和软件技术对数据进行有效的收集、存储、处理和应用的过程。随着信息技术的进步,管理信息系统将面向大规模的组织提供业务支持,不仅要覆盖整个组织的各类业务,而且要覆盖整个组织(全球或者全国)。为此,作为管理信息系统的核心功能,数据管理将要进入一个新的阶段,即面向数据应用的数据管理。面向数据应用的数据管理概念数据管理,即对数据资源的管理。按照en:DAMA的定义:“数据资源管理,致力于发展处理企业数据生命周期的适当的建构、策略、实践和程序”。这是一个高层而包含广泛的定义,而并不一定直接涉及数据管理的具体操作(摘自维基百科)。与百度百科的定义比较,百度百科的定义针对的是数据应用过程中数据的管理,即传统的数据管理,而维基百科的定义更高一层,针对的是企业数据全生命周期所涉及应用过程数据的管理,即对数据变化的管理,或者说是针对描述数据的数据(元数据)的管理,在此我们称之为面向应用的数据管理。根据管理学理论,几个人的团队可以靠自觉、自律,几十个人就要有人管理,几百个人就要有一个团队管理,几千或几万人就必须要依靠计算机辅助团队管理。通常覆盖全国的企业和机构,其整个组织的管理分为总部机构、省级机构、市级机构、以及基层机构等等各层级机构;在每个层级机构中还设置了直接从事相应业务的管理和职能部门和非直接从事业务的管理和职能部门(如人事、办公、后勤、审计等);每个部门又是由若干员工为管理对象构成的。同时,还制定了一系列的制度去规范和约束机构、部门、人员等管理对象的活动、行为等。同样,数据管理随着管理对象——数据的增加,管理的方式(阶段)也会随之提升。通常的大型管理信息系统,其整个项目分为总集成、分项目、子项目、每个子项目又有若干内部项目组等等管理层级;在每个管理层级中都涉及直接服务于业务的业务功能(如业务交易、账务处理、行政管理、结果展现等等)和非直接服务于业务的非业务功能(如定义、配置、监控、分析、记录、调度等等);每个业务和非业务性质的功能又分别由若干数据集合为对象(如流程、表单、数据项、算法、元数据、日志等等)所构成的。同时,也需要制定一系列制度、规则和标准去约束项目、功能、数据等管理对象的活动和变化。由此可见,传统的数据管理侧重的数据对象是流程、表单、数据项、算法等直接面向具体业务需求的数据;面向应用的数据管理所涉及的数据对象,还增加了通过标准化的手段,描述流程、表单、数据项、算法等应用对象的数据(即它们对应的元数据),以及记录各类数据变化结果的档案、记录运行状态的日志等等非直接面向业务的数据,以实现对各类应用业务需求的加载、变化、记录、复用等过程的管理。见下图 数据空间示意图 面向数据应用的数据管理对象面向数据应用的数据管理对象。面向数据应用的数据管理所管理的数据对象,主要是那些描述构成应用系统构件属性的元数据,这些应用系统构件包括流程、文件、档案、数据元(项)、代码、算法(规则、脚本)、模型、指标、物理表、ETL过程、运行状态记录等等。通常意义的元数据(Metadata),是描述数据的数据(data about data),主要是描述数据属性(property)的信息。这些信息包括数据的标识类属性,如命名、标识符、同义名、语境等等;技术类属性,如数据类型、数据格式、阈值、计量单位等等;管理类属性,如版本、注册机构、提交机构、状态等等;关系类属性,如分类、关系、约束、规则、标准、规范、流程等等。而面向数据应用的数据管理所涉及的元数据,主要是描述那些应用系统构件属性的信息。除了传统元数据属性以外,每个不同的构件还有其特有的属性,比如流程要有参与者和环节的属性、物理表要有部署的属性、ETL要有源和目标的属性、指标要有算法和因子的属性等等。每一个构件必然对应一个或多个(一个构件的不同分类)元模型,元模型是元数据的标准,每一个元数据都应该遵循其对应元模型的定义。比如每个数据项(元)都有自己的名字、标识符、数据类型、数据格式、发布状态、注册机构等等属性,这些属性的集合就是这个数据项的元数据。而每个数据项的元数据都是由哪些属性描述、每个属性应该如何描述、以及描述的规则等等约束称之为元模型。电子政务数据元标准(GB/T 19488.1-2004)就是电子政务数据项(元)的元模型。传统的元数据管理通常均在相关业务实现后,通过专门元数据管理系统的抽取功能加载元数据,这种方式由于需要在事后人工地启动加载或维护(事后补录业务属性)元数据的过程,往往很难及时获取元数据的变化,确保元数据与实际情况的一致性。在实现面向应用的数据管理时,应该采用主动的元数据管理模式,即遵循元模型的标准,通过人机交互过程加载元数据(本地元数据),在可能的情况下同时产生数据对象(应用系统构件)的配置或可执行脚本(如果条件不具备,也要利用人机交互所产生的元数据,作为其它相关工具产生可执行脚本的依据)。每当需要变更配置或修改脚本时,也是通过这个人机交互过程实现,同步产生新的元数据,保证了元数据与实际的一致性。 主动的元数据管理模式 见下图面向数据应用的数据管理意义和方法传统应用系统(Application Systems)往往是针对特定应用的,需要固化需求的,难以支持变化的管理信息系统。而金税三期项目是建立针对全国性的组织,覆盖整个组织所有管理业务和所有用户的管理信息系统。这样的应用系统,业务需求的“变化”是常态的,“不变”是暂态的;面对整个组织,各部门和层级的业务“不同”是客观存在的,“统一”是逐步实现的,继而持续拓展(开始新的不同)的。为此,必须要有一个不仅能提供业务需求的实现,更要能够提供可支持业务需求的变化,可对它们变化进行跟踪和管理,可以支持持续优化的用户体验的,企业化生产的新型应用系统(AS2.0)产品集合作为支撑。AS2.0中必须对整个组织业务需求的变化过程和结果加以控制、记录和管理,面向数据应用的数据管理就是AS2.0关键基础构件的一个产品,并且是它可行性的基础。传统应用系统的数据管理所关注的是数据的增值过程,其功能的实现重在关注和强调业务需求内容的加载、内容的ETL、内容的组织、内容的加工以及内容的反映。这些功能的都是通过编码实现的,固化的软件代码。AS2.0的数据管理所关注的增加了元数据的集合、历史数据的集合和状态数据的集合,并且利用主动的元数据管理工具进行配置和加载实现的软件代码。同时,将其对应的本地元数据汇集形成元数据集合,实现对各种业务需求的变化实施加载,加以捕获,进行记录,实现跟踪达到对变化的管理;将与内容和变化相关的历史记录加以标准化的封装形成档案,实现历史资料的组织、复用和卸载等功能达到对历史的管理;将AS2.0各种构件运行状态信息实时捕获,加以记录,综合分析,及时反映,实现整个系统运行时状态的综合管理。综上所述,随着数据对象拓展了变化的记录、历史的记录、状态的记录,标志着数据管理进入了新的阶段——面向数据应用的数据管理,也标志着应用系统开始进入AS2.0时代。4反洗黑钱数据管理是反洗黑钱 (AML) 的核心所在金融服务提供商需要比以往任何时候都要更加深入地了解他们的客户。洗黑钱是许多政府在打击犯罪和恐怖主义时考虑的一个主要问题,正因如此,他们已针对其管辖范围内运营的金融服务组织发布了众多指南。数据管理是反洗黑钱 (AML) 的核心所在。例如,欧盟的《反黑钱第三指令》和《美国爱国者法案》都很注重以下领域中需要受到关注和严格管理的数据质量:·客户身份标识·了解客户 (KYC)·客户(或增强的)尽职调查反洗黑钱中的Informatica数据质量解决方案Informatica ® Data Quality TM 包括用于业务和合规性数据分析的桌面工作台。它易于使用的界面可让那些需要充分了解数据和业务流程的用户创建自身的数据质量规则,以确定潜在的可疑或欺诈行为。 这种易于使用的功能是企业的一个关键优势。简言之,无需等待独立部门来制定和部署规则,从而由于实施时间的延迟而增加泄露风险。如今,公司不但可以制定、部署和集中管理规则,而且还可以快速对不断变化的业务情况做出反应。Informatica Data Quality 解决方案用于交叉引用多个数据集。这种交叉引用可让企业按照以下列表来识别和验证客户和交易数据:· 观察列表(内部、政府和第三方)· 死亡率列表· 政界人士 (PEP) 列表· 抑制列表· 地址数据· 参考数据最后,一旦规则建立后,可以通过 IT 组织对它们进行部署和优化,并设定为定期执行。这种自动检查可以确保在使用定期、计划的批处理作业的持续基础上管理数据,非常适用于连续的客户尽职调查 (CDD) 和特殊的可疑活动报告。反洗黑钱(AML)中的客户信息计划制定规则企业必须详尽地了解他们的客户。销售、营销和金融部门的有效运作都必须有准确和最新的客户数据。过去,与数据保护相关的各种法规都要求更好的客户数据质量,例如《银行保密法》(美国)和 HIPAA。但是,立法者和监管者已通过附加的合规举措对最近的一些违规行为做出了反应,包括《萨班斯—奥克斯利法案》、欧盟的《反黑钱第三指令》、《美国爱国者法案》、《金融工具市场法规》(MiFID) 和 Solvency II。这其中的许多举措表明了企业在以下领域内的整合要求:·数据治理·数据集成·数据存储和仓库· 商业智能和报告纵观所有这些规则,表明了对管理数据质量计划的一贯要求。有时候,这是一种隐含的要求,但在一般情况下,数据质量要求却是明确的:需要实施涵盖所有开户客户的程序:1. 捕获所有客户的 ID信息2. 验证客户身份3. 通知 CIP 流程的客户4. 将客户姓名与政府列表进行比较所需的身份信息(在开户之前):1. 姓名2. 街道地址(不需要邮政信息)3. 出生日期(个人)4. 身份号码(对于美国公民,必须为美国纳税人身份证号码)。第 326 节:客户确认计划《美国爱国者法案》要管理他们的客户信息计划 (CIP),许多金融机构均会依赖于 Informatica 的数据质量产品。业务分析师使用基于角色的 Data Quality Workbench 来定义规则,以确保 CIP 所需的数据适合于其目的。通常情况下,需要衡量和报告以下数据质量维度:· 完整性: 确保填写所有 CIP数据· 符合性: 确保所有 CIP数据的格式均正确无误· 一致性: 分析多个属性以保证数据的一致性,例如货币与国家/地区和城市与国家/地区· 重复性: 此客户是否已经存在?· 真实性: 此客户是否在 PEP 列表上?此客户是否与员工相关 (KYE)?此客户是否与其他客户相关?· 准确性: 确保 CIP数据都有效:日期、产品代码、地址· 范围: 本次交易是否超过某一数量?帐户上的货币交易数量是否超过某一水平?分析师可以使用此类报告,快速确定在基于风险的 CIP 中需要引起关注的数据差异。例如:· 居住的国家/地区· 客户业务的性质·帐户或银行产品的类型· 交易数量和交易值· 客户在 PEP 列表上在数据捕获(例如,打开新的帐户)或通过批处理时,都可以生成高度精确的搜索结果和数据质量异常报告。通常情况下,数据质量改善流程适用于现有的客户或交易数据,以提高 CDD 或促进历史审查。可以使用 Informatica 或第三方报告引擎来提交报告。5AMLAML 程序中用于比较的字段分析师也可以通过使用 Informatica Data Quality 解决方案,根据观察列表来履行他们对客户进行比较的监管要求。通常,在 AML 程序中用于比较的字段包括:· 名字 x 出生年份· 姓氏 x 地址· 性别 x身份标识· 出生日期例如,业务分析师可以通过着重于出生年份(而不是完整的出生日期)来单独权重各个字段。在此示例报告中,如图 2 中的示例,可以生成客户数据集和参考数据集之间所有潜在匹配的列表,例如观察列表。可以通过预先确定的权重来触发 AML 警报,使相关人士关注这些匹配。如果匹配 AML 报告中的这些记录不是真正的匹配,可以设定标记以避免今后的报告使用同样的匹配。 搜索和匹配流程也可只用于确定和删除系统中的重复内容。潜在重复内容可通过基于 Web 的客户提交给数据质量管理员,前者将审查质量欠佳的记录,并选定一个在重复内容中拥有最佳数据的主记录或完美记录。AML 算法内置数据质量防火墙CIP 是全面了解客户 (KYC) 计划的一个子集,该计划最终需要相同的数据质量流程。通常情况下,数据质量管理员扩展 Informatica Data Quality 解决方案的 CIP 功能,以便纳入与客户的财务状况和投资目标相关的数据。使用 Informatica 公认的技术方法,可以改进和验证客户的数据,从而协助实现 KYC 目标。因此,它不但包括对欺诈行为的更多检测,而且还可增强客户关系数据和销售市场部分。从效果上来说,这在 AML 算法或第三方引擎的前面内置了一个数据质量防火墙。这些防火墙实现两个功能:· 确定质量欠佳的数据:标准化、清洗数据和/或及时扩充,从而提高 AML 引擎的效率并降低风险的出现。· 确定潜在的欺诈行为:在将数据加载到引擎之前,使用数据质量业务规则,尽早地抓捕欺诈行为。图 4 显示了数据质量防火墙的挖掘视图。它包含逐条记录的数据质量等级 (O 列)。在 0% 至 100% 之间对其进行评分,这些等级首先用于指向包含最差 DQ 的记录。业务分析师可以根据具体情况,轻易地调整这些等级的权重。此外,该报告还强调了 CIP/KYC 风险等级,这些风险等级均适用于使用 Informatica Data Quality 的数据。这些风险等级确定了可能会导致欺诈行为的特定数据方案,即使在将数据加载到 AML 引擎之前。AML 程序的重要组成部分:客户尽职调查对新的和现有的客户进行充分全面的客户尽职调查 (CDD) 是任何 AML 程序的重要组成部分。CDD 依赖于优质的 CIP 和 KYC数据以及流程来监控客户关系的改善情况,并将他们的服务用作整体风险控制功能的一部分。 《美国爱国者法案》、《反黑钱第三指令》和其他法律都非常高度重视 CDD,且 Informatica Data Quality 也非常适合于提供持续的监控以应对这些要求。 如上述所论,积极的数据质量管理可以确保随着时间的推移,CDD 使用的数据质量越低,而效率却越高。第 II 章客户尽职调查第 8 条第 1 节1. 客户尽职调查测量应包括:(a) 识别客户并验证客户的身份 ……(b) 在适当的情况下,识别爱益者,并采取基于风险和充分的措施来核实他的身份,以便本指令所涵盖的机构或人员对所了解的受益者满足,包括法人、信托或类似的法律安排,采取基于风险和充分的措施来了解所有权并控制客户的 结构;(c) 获得有关业务关系的宗旨和目的性的信息;(d) 对业务关系进行持续的监控,包括交易审查......欧盟的《反黑钱第三指令》AML 数据质量规则示例参考右图6电话营销电话营销中,销售团队、产品、营销数据库构成了“谁来卖”、“卖什么”、“卖给谁”、这三个必不可少的要素。作为目的销售对象的汇合---营销数据,则更在电话营销工作中起到至关重要的作用,如何科学、标准地管理与运用这些珍贵的数据资源,应该成为每一个电话营销工作管理者需求认真考虑与实在执行的问题。下面让我们从理论动手,看看电话营销中“数据管理”需求关注的那些环节! 第一项关注:数据的导入 数据在导入前需求做一定的处置,以保证运用过程中可维护、可统计与可剖析。 首先,需求对原始数据属性停止剖析与定义。通常,电话营销中会调用来自不同渠道的各类数据,这些数据分别有其本身的特性。这就使得我们需求先辨别相似地域属性(本地与异地)、性别属性(男与女)、年龄属性(不同年龄段)、收入属性(高中低收入群体)、行业属性(金融、IT行业)等。然后依据这些不同的特性,将数据属性停止归类与编码,经过电话销售来对这些数据做进一步的处置。进而,我们才能够剖析并且找到最合适产品销售的用户群,以完成数据信息的优先获取与选用,将数据资源得到最大化应用。 其次,这有一项看似简单却十分有意义的工作,就是要在数据导入前对数据预先做一下处置,删除一些无效数据,比方短少联络电话的数据、联络电话号码缺位的数据,或者与目的客户群属性不分歧的数据。由于这些工作布置在数据导入前,因而可以经过对原始数据的批量处置,以最高效地得到更契合拨打规范的数据,同时保证分配到一线TSR手中的数据是精确而有效的,俭省他们的时间以及工作效率。 最后,在数据正式投入运用前,也倡议对原始数据停止编号与备份,由于一旦数据分配到TSR手中,必然随着销售工作的推进,对数据信息不时停止维护与更新,当需求查看数据的原始信息时,就需求这个备份的原始数据库了。由于前期曾经对原始数据停止编号,此时我们只需求用数据编号在原始数据库中做一个简单的对应关系查询即可。 完成以上处置,如今我们就能够将数据资源导入,并等待着经过电话营销,为我们带来丰厚的利润! 第二项关注:数据的运用 经过处置的数据在导入后显得划一、有序,这是一个好的开端。 接下来请让我们一同来理解一下数据的运用过程。营销数据被TSR运用的同时,会对数据停止一系列的维护,其中主要包括对拨打状态及销售状态的记载与更改。下面让我们一同来看一下有几种拨打状态及销售状态,以及这些状态分别关于我们有哪些意义。 拨打状态:拨打状态就是该营销数据中的电话号码等联络方式在联络后的接通状况。通常我们能够依据下图所示的状态来标注。 标注了拨打状态的数据就具有了进一层的意义-----数据的生命力。那些属于永远也无法接通的数据就全部从TSR这里 “Cancel”掉,再也不要调出来占用TSR的时间;“忙音/通话中”的数据需求优先给予“错时拨打”的注重,由于这种状态标明这个电话仍在运用中,继续联络的接通可能性也将是最大的!顺便说一下,关于需求“继续联络”的数据,应该采用“错时拨打”的方式。所谓错时拨打主要是错开工作日及非工作日,或错开白昼时间及晚上时间。只要经过“工作日拨打”、“非工作日拨打”、“白昼时间”及“晚上时间”的错开拨打,才能够做到数据资源的有效应用。 再来看一下“销售状态”。销售状态只针对电话接通并且找到联络人的数据而停止标识的三种状态: 胜利:电话销售胜利待跟进:联络人需求思索,或销售未完成,需求进一步跟进回绝:联络人不承受销售的产品或效劳,电话销售失败以上三种状态很容易在电话营销的运用过程中标识。这里需求留意的是,对“待跟进”以及“回绝”这两种状态的关注。针看待跟进数据,我们更希望可以理解招致用户需求思索的要素主要是哪些方面?产质量量?产品价钱?还是售后效劳?只要控制了这些信息,我们才干够愈加熟习数据属性,并且有针对性的设计销售脚本,来应对这类需求“待跟进”的用户。 同样,回绝的用户我们也需求找出用户回绝的主要缘由有哪些,经过与数据属性的对应,采取有效措施进步销售的胜利率。 第三项关注:数据的应用 经历通知我们,数据是不需求均匀分配给每一个TSR的,由于不同的TSR对数据的运用状况不同。在分配数据时我们应该依据每一个TSR对数据的运用状况来实时停止有效的调控。 这时,有两个参数能够协助我们完成营销数据的调控:“胜利接触率”、“待跟进率”。以下分别引见。 胜利接触率=接触到的用户数据总和/接通数据总和×100%。胜利接触率是判别数据有效性的一个指标。经过胜利接触率来理解所拨打的数据中,有几数据可以找到联络人既销售对象。胜利接触率是一个变化的状态值,随着数据的二次拨打、三次拨打以至于更屡次的拨打,胜利接触率会有所进步。为在一定水平上进步数据的有效应用状况,可设定“最低胜利接触率”,当所分配数据的“胜利接触率”低于设定的目的值时,减少新数据的分配,同时请求TSR对未接通数据中的“忙音/通话中”、“无人接听”停止错时屡次拨打,以到达进步“胜利接触率”进而更有效应用数据的目的。 待跟进率=待跟进的数据总和/接触到联络人的数据总和×100%。依据公式不难了解,“待跟进率”所关注的是在可以找到联络人的数据中,有几数据是需求待跟进的。在对数据分配停止控制的过程中,针对这个指标,需求设定“最高待跟进率”。 设定“最高待跟进率”。为使数据资源可以很好应用,并且可以及时地与正在思索的联络人停止二次销售,把握住最佳的跟进机遇,我们需求TSR定期看待跟进数据停止追呼。当超越“最高待跟进率”时,则标明该TSR所调用的营销数据中,待跟进状态的数据曾经过多,此时需求减少新数据的分配,以使其集中精神跟进有意向但仍在犹疑的销售对象。 经过营销数据中“胜利接触率”这个指标的控制找到更多的联络人,经过“待跟进率”这一指标的控制,找到更多的胜利销售时机。对这两个指标的关注,是电话营销“数据管理”的重要内容
一个最基本的网站在技术层面上需具备那些?比如数据库。谢谢!
过其在时间形成历史的流变,得以知晓现状,甚至能够预知未来。
那Web 1.0是什么呢?
他们说,记得静态HTML的WWW时代么?
(那个时代的WWW应用、人们的Web体验、对社会的影响如何?)
那么动态HTML和静态HTML下的Web相比,是多少版本?1.5?对了,他们是真这么叫的。
(在效果和影响上,与1.0相比,扩展和加深多少?)
要呈现的数据存储在数据库中,通过Web服务端的程序,应用户的请求,取出数据,加上事先设计的模板,动态的生成Html代码,发送到用户的浏览器那里。
他是1.0系列,应为用户在浏览器中所见和Web 1.0一样,它有0.5的升级,因为数据不是事先制作并发布,而是动态生成,和用户的需要交互生成。
那好,在加0.5,到Web 2.0,变化是在哪里呢?
(看到了正在崛起的和改变的,会继续朝着什么方向改变互联网和社会呢?)
更新:关于各个版本的差别,看看亚马逊的例子。
事情没有那么幸运,Web 2.0并不是一个具体的事物,而是一个阶段,是促成这个阶段的各种技术和相关的产品服务的一个称呼。所以,我们无法说,Web 2.0是什么,但是可以说,那些是Web 2.0。
WikiPedia的Web 2.0条目下列出了这些条件:
* CSS 和语义相关的 XHTML 标记
* AJAX 技术
* Syndication of data in RSS/ATOM
* Aggregation of RSS/ATOM data
* 简洁而有意义的 URLs
* 支持发布为 weblog
* RESTian (preferred) 或者 XML Webservice APIs
* 一些社会性网络元素
必须具备的要素有:
* 网站应该能够让用户把数据在网站系统内外倒腾。
* 用户在网站系统内拥有自己的数据
* 完全基于Web,所有的功能都能透过浏览器完成。
(以上内容引用自英文版维基百科)
虽然这只是一家之言,不过,对于其中谈到的几个要素,大家还是公认的。
- 基于RSS/ATOM/RDF/FOAF等XML数据的同步、聚合和迁移。
数据不再和页面和网站混粘在一起,它独立了,它跟着用户走。这是Web 2.0的很重要特征。这也是为什么Blog是Web 2.0的代表的原因。在网志上,常主角的是相互独立的一则则的网志。
独立,然后有物理表现。现在,就能让他们活跃起来。透过对XML数据的处理,这些内容能被自由的组合,被各种应用程序,不论是Web程序还是桌面程序等呈现和处理。
当然,最重要的是背后的人。
- 社会性因素。
内容跟着人走,内容又能够被用户自由的组合,也就是说,用户能够自由的借助内容媒介,创建起一个个的社群,发生各种社会性的(网络)行为。
此外还有标签以及建立在开放标签系统之上的Folksonomy。
- 第三个公认的因素是开放API,这个技术性稍强些,得另花时间研习,可以先看看例子:amazon、flickr、google map等。
从Web应用的产品/服务生产者角度来说,该如何创建Web 2.0的产品呢?
重要的是要抓住这么几点,一个是微内容(这里有定义),一个是用户个体。除了这两个最基本的之外,还可以考虑社群内的分享以及提供API。
微内容:英文是microcontent。用户所生产的任何数据都算是微内容,比如一则网志,评论,图片,收藏的书签,喜好的音乐列表、想要做的事情,想要去的地方、新的朋友等等。这些微内容,充斥着我们的生活、工作和学习,它的数量、重要性,还有我们对它的依赖,并不亚于那些道貌岸然、西装革履的正统文章、论文、书籍。
对微内容的重新发现和利用,是互联网所开创的平等、民主、自由风气的自然衍生,也是互联网相关技术消减信息管理成本之后的一个成果。
我们每天都生产众多的微内容,也消费着同样多的微内容。对于Web 2.0来说,如何帮助用户管理、维护、存储、分享、转移微内容,就成了关键。
用户个体。对于Web 1.0的典型产品/服务来说,用户没有具体的面貌、个性,它只是一个模糊的群体的代名词而已。但是对于Web2.0的产品和服务来说,用户是个实实在在的人。Web 2.0所服务的,是具体的人,而不是一个如同幽灵般的概念。并且,这个人的具体性,会因为服务本身而不断地充实起来。
如何为这个具体的个体服务,是Web 2.0设计的起点。
因此,一类可以被称作Web 2.0的产品/服务将是这样:
服务于用户个体的微内容的收集、创建、发布、管理、分享、合作、维护等的平台。
其他的呢?恐怕就设计到好些人提到的,微内容的XML表现;微内容的聚合;微内容的迁移;社会性关系的维护;界面的易用性等等。
以及是否就是开源、参与、个人价值、草根、合作等等?
Web2.0是许多方面起头并进又相互牵连的一个新的阶段的到来。因此,不同的人,有着不同的看法。那么,对于Web开发人员来说,Web2.0意味着什么呢?
他们说Web2.0阶段,Web是一个平台,或者说,Web正在变得可编程,可以执行的Web应用。野心家们设想这个它的终极目标是Web OS。
Web 1.0时候,Web只是一个针对人的阅读的发布平台,Web由一个个的超文本链接而成。现在的趋势发生了变化,Web不仅仅是Html文档的天下,它成了交互的场所。
Web 2.0 Conference网站的横幅引用Jeff Bezos的话说“Web 1.0 is making the internet for people,web 2.0 is making the internet better for computers”。
具体来讲,他们说Web成为一个开发环境,借助Web服务提供的编程接口,网站成了软件构件。
这些,就是Web Service的目标吧,信息孤岛通过这些Web Service的对话,能够被自由构建成适合不同应用的建筑来。
一些例子:del.icio.us、flickr、a9、amazon、yahoo、google、msn等提供的编程接口衍生出的各种应用。
为什么要开放APIs,这涉及到集市中的商业方面的技术策略。当然,还有更深层的原因,那是什么呢?
这种交互不仅体现在不同的网站服务之间,同时还体现在用户和Web之间在浏览器上的交互。这也是为什么在美味书签的收藏中Web2.0和AJAX如此相关的一个原因。
在Web页面上使用桌面程序有的那些便利,真的是很享受的事情。这恐怕也是Web可编程的一个方面,Web页面不再是标记和内容混合那样的简单,它就是一个可以编程的地方(是这样理解吧?)
有人反对说,AJAX的使用对搜索引擎不友好,只有Web 1.0的站长才关心这个事情吧,在Web 2.0时候,站长应该关心的是用户参与的便利、用户的自由度,至于搜索,有RSS/ATOM/RDF等,更本用不着操心,Google不是已经顺应这个趋势,让大家主动提交了么?
可编程的第三个方面,是否在于Web应用和桌面应用之间的无缝连接趋势的出现?类似这里说的“从工具上,是由互联网浏览器向各类浏览器、rss阅读器等内容发展”
编程的一个重要目的是对数据的操作,因此,对于网站来说,除了Web Service接口之外,最近为简便方式就是将内容以RSS/RDF/ATOM格式,或者有意义的XHTML格式输出,同时实现内容和表现的分离。
[Web 2.0是个历史学的概念,而非是个技术性的概念,它是对Web发展历史断代的成果。对这个概念的梳理,能帮助我更好的把握互联网正在发生的技术与文化。]
中文网志圈谈论的Web 2.0内容摘要:
- “Web 2.0是用来研究现象、发现规律的东西,不是用来招商引资、搭台唱戏的东西。当越来越多的互联网应用采取与用户互动的方式,越来越多的内容是由用户产生,越来越多的用户参与到互联网创造的过程中的时候,其实它代表了一种新的思潮。在这种思潮之下,一些新的技术开始出现,一些古老技术重新焕发了生机。随便你怎么表述这样一种现象,但现象本身是实实在在存在的,不管是叫它Web 2.0,还是社会化互联网。”[Keso:老冒给Web 2.0浇了一桶冷水]
- “我觉得最有价值的一个是, web应用的数据格式开始逐渐出现了交换“标准”...这些标准...更加容易被机器自动化处理...能帮助人更好地过滤和定制化信息。其次,更多的服务将以web service的形式来提供,...这使得web 服务可以被互相集成, 从而诞生更多新的服务...人的重要性被提高了。过去web更多注重在信息提供, 而现在的越来越多的应用更加关注人,也就是所谓“社会性”。此外web的可用性改进正在被越来越重视...”[老冒:朝web 2.0泼点冷水]
- “我认为Web x.x是人们为了区别不同时代Web的发展而使用的,而这些概念也是经过归纳出来的结果。抓住对方向,如Wikipedia中所提到的朝向互动及社会网络的方向发展,不论应用何种技术,只要能达到目的都是很好的。甚至作为一般的使用者,都可以不去理会Web x.x的讨论,因为我们都已经在使用这些技术或网站了。”[图书馆观点:Web 2.0]
- “RSS逐渐成为在线内容提供服务的标准发行平台。Blog以及user-generated内容的兴起。My Yahoo提供的RSS整合型服务。同时提出了值得密切关注的一些发展中领域,其中包括搜索技术,个性化,User-Generated内容(包括 blog,评论,图像和声音),音乐,短视频和Accessibility(易访问性)”[Owen:Mary Meeker新作 - 关于Digital World的发展报告的摘取]
- “我们谈论的Web2.0带给我们的是一种可读写的网络,这种可读写的网络表现于用户是一种双通道的交流模式,也就是说网页与用户之间的互动关系由传统的“Push”模式演变成双向交流的“Two- Way Communication”的模式。而对于Web服务的开发者来说,Web2.0带来的理念是服务的亲和力,可操作性,用户体验以及可用性。”[Owen:BaCKpACK-体验可读写的Web服务]
- “web 2.0是一种可以被分发的信息概述,web文档被格式化成了web数据。我们不会再看到不同旧地信息,现在我们所注意到是一种聚合、再混合内容的工具。”[songzhen:也说Web 2.0的翻译]
- “从这些应用中可以看到:如果基于传统的HTML,同样的功能实现将变得非常复杂和不稳定,数据的再生产和交换成本是很高的。所以:RSS这个标准最终要的贡献就是使得互联网的大部分网站变得可编程:类似的例子还有Blog中的:TrackBack Ping等机制,这些机制都是依赖XML/RPC实现的。当初为Lucene设计一个RSS/XML的接口也是为了这个初衷,它使得全文检索服务可以轻松的嵌入到各种应用中,通过关键词将各种内容之间实现更丰富的关联(Well Referenced)。”[车东:RSS,简单协议使得互联网可编程]
- “聚合的可能性以及如何更好地聚合(通常来说,更好的聚合应该基于个人知识管理和人际关系管理)很显然应该成为新一代或者说web2.0架构的核心之一。还有,你会重新发现,恰好是分散带动了聚合,聚合促进了分散,通过聚合的思维,互联网的网络状变得越来越丰富和密集,web2.0就变得越来越有趣味,它将web1.0时代的硕大节点即门户网站不断消解,去努力创造一个更加和谐的自然网络图谱。”[Horse:rss,聚合的无数可能]
- “新的web2.0网站都依赖于用户参与、用户主导、用户建设”。[Horse:Web 2.0这个词]
- Keso:Web 1.0与Web 2.0的区别
- “表面上看,Bloglines取代了门户,成为一个新的中心,但这里有一个重大的区别。门户是只读的,它带有某种锁定的性质。你可以离开门户,但你无法带走门户的内容。Bloglines则完全不同,你觉得它好用,就会继续使用,有一天你不再喜欢Bloglines,你完全可以导出你的OPML,到另一个 RSS订阅网站,或者干脆用客户端软件浏览同样的内容。所以,像Bloglines这样的网站,是可写的,你可以导入,也可以导出。就像你对信息拥有选择权,对服务提供商也同样拥有选择权,没有人可以锁定你,主动权在你自己手上。”[Keso:再说信息选择权]
- “Flickr、del.icio.us、Bloglines等Web 2.0服务,通过开放API获得了很多有趣、有用的想法,并借助外部的力量,让用户获得了更好的体验。更多大公司也加入到开放API的潮流中,Google、Yahoo!、Amazon、Skype。Google桌面搜索今年3月才开放API,很快就产生了大量的创造,大大扩充了可搜索的文件格式。”[Keso:开放API]
- “归纳:web1.0天天谈门户,web2.0谈个人化;web1.0谈内容,web2.0谈应用;web1.0商业模式,web2.0谈服务;web1.0谈密闭、大而全,web2.0大家谈开放、谈联合;web1.0网站中心化,web2.0谈个人中心化;web1.0一对一,web2.0谈社会性网络;web1.0不知道你是狗,web2.0你去年夏天干了什么我一清二楚甚至想要干什么呢。。。”[van_wuchanghua:发现了N.HOOLYWOOD,我还知道你今年夏天要干什么]
- “我认为Web2.0有下面几个方面的特性: 个性化的传播方式. 读与写并存的表达方式. 社会化的联合方式.标准化的创作方式. 便捷化的体验方式. 高密度的媒体方式.”[飞戈:Web2.0与未来的网络]
- “用RAILS写的网站带有典型的读写网络的特征:RAILS创建的三个架构中的ACTIVE RECORD这个模块中,如果你读读它最重要的基类 ActiveRecord::Base,你会发现有CREAT,EDIT,SAVE,DESTROY这些方法已经天然包含在内了,这让实现一个数据库的CRUDS行为变得如此简单。由于这些类的方法直接和网页的名称映射到一起,这使得网页本身就像一个可以编缉的数据库的数据项。”[Blogdriver:RUBY ON RAILS,wEB2.0世界新生的创造力]
- “Greasemonkey一定名列前茅。这个通过User Script就能修改任何网页输出效果的插件极大的提高了用户阅读的自主性,一推出就引起了轰动,同时也引来了不少争议。”[Webleon:platypus,完全可写的互联网]
- “Web1.0到Web2.0的转变,具体的说,从模式上是单纯的“读”向“写”、“共同建设”发展;从基本构成单元上,是由“网页”向“发表/记录的信息”发展;从工具上,是由互联网浏览器向各类浏览器、rss阅读器等内容发展;运行机制上,由“Client Server”向“Web Services”转变;作者由程序员等专业人士向全部普通用户发展;应用上由初级的“滑稽”的应用向全面大量应用发展。 ”[Don:Web 2.0概念阐释]
Web 2.0阶段的一个重要特征是开放,和Web初期的开放有很大不同,有以下几种突出的表现:
内容方面。
- 内容的创作共用授权。它的广谱和可选择性,让它具有了足够的生命力。CC先是在网志圈中广泛采用,后来许多商业公司也纷纷采用CC方式(比如BBC);先是文本世界采用,后来逐渐推广到了多媒体世界,比如音频、视频、Flash动画等等。一场自由的文化(free culture)运动在各个方面悄然铺开。
- 内容来源方面的开放。和早期的Web阶段相比,由于使用相关设备的成本降低,利用相关技术的门槛减低,人们可以自由生产并发布各种内容,比如文本信息,比如语音记录,比如视频录制等。信息的生产和传播不再仅仅是商业资本或者技术精英的特权。在Web的新阶段,原来在商业、技术与大众之间的信息生产和传播的落差被削平。消除信息垄断和去中心化已经成为可能。不仅如此,信息的生产和消费的模式也发生了变化,从原来的生产/消费的对立,变成了参与式的信息集市。
Web主体方面。
- 商业网站也渐渐采取了开放的、参与的模式。除了内容上的CC授权出现之外。原来并不外露的内容,也随着blog、podcasting等的兴盛而对外开放。一些网站还在技术层面开放,比如开放源代码,比如开放APIs(编程接口),让自己成为一个平台,让用户可以参与衍生产品的创造,用户本身也是产品的生产者。不仅是内容、技术层面,在鼓励用户的参与上,也有相应的开放出现,比如一些新闻网站的RSS源的输出、引用通告(trackback)功能的采纳、blogthis便利的提供,无一不是让用户参与到内容生产、传播的各个环节。
- 个人信息层面的开放。有开放,才有交流,才有社会行为和形态产生。个人内容的开放是与一类Web 2.0服务的兴起有关。它涵盖了内容(文本、声音、影像、视频)、关系、行为等等。
推荐阅读
- ○ 最新最优拆解新零售的未来发展 可以通过搭建全渠道新零售体系
- ○ 雪球也能爆炸 吉格斯
- ○ 江西华伍
- ○ pvc电线管价格
- ○ 大齿轮厂家
- ○ 君威汽车
- ○ 开业礼品
- ○ 芬迪诗
- ○ pvc背包
- ○ 倩碧宛若新生
最新文章
- ○ 最新最优拆解新零售的未来发展 可以通过搭建全渠道新零售体系
- ○ 雪球也能爆炸 吉格斯
- ○ 江西华伍
- ○ pvc电线管价格
- ○ 大齿轮厂家
- ○ 君威汽车
- ○ 开业礼品
- ○ 芬迪诗
- ○ pvc背包
- ○ 倩碧宛若新生