跳至正文

factor table(factor table wizard)

正交试验因素水平表的翻译是:什么意思

正交试验因素水平表的翻译是:什么意思

正交试验因素水平表的翻译是:The orthogonal experiment factor level table

要素价格均等化定理

要素价格均等化定理

要素价格均等化定理即两国间开展贸易的结果会使两国的生产要素价格最终相等这一趋势。[1]   

要素价格均等化(赫-俄-萨定理)(Factor Price Equalization Theory):即H-O-S定理。按照赫-俄模型,国际贸易将导致各国生产要素的相对价格和绝对价格趋于均等化, 萨缪尔逊发展了这一理论,认为要素价格均等化不仅是一种趋势,而且是一种必然,国际贸易将使不同国家间同质生产要素的相对和绝对收益必然相等,故被称为H-O-S定理。   该命题隐含的启示为:国际贸易同国际投资之间存在替代关系,即自由贸易越是发展,国际投资与国际要素流动的必要性越是减弱,因此,前者使国家间同种要素的相对报酬甚至绝对报酬均等化。   该命题另一隐含的启示为:国际贸易将减小发达国家与发展中国家的收入差距,甚至实现发展中国家的经济赶超。   要素价格均等化有三个假设:1 两个国家同时生产两种相同的产品;2 两国的技术水平相同 3 贸易会使得两个国家的产品价格相等。

access中基本表的结构的修改命令

access中基本表的结构的修改命令

ALTER TABLE table { [ ALTER COLUMN column_name { new_data_type [ ( precision [ , scale ] ) ] [ COLLATE < collation_name > ] [ NULL | NOT NULL ] | {ADD | DROP } ROWGUIDCOL } ] | ADD { [ < column_definition > ] | column_name AS computed_column_expression } [ , …n ] | [ WITH CHECK | WITH NOCHECK ] ADD { < table_constraint > } [ , …n ] | DROP { [ CONSTRAINT ] constraint_name | COLUMN column } [ , …n ] | { CHECK | NOCHECK } CONSTRAINT { ALL | constraint_name [ , …n ] } | { ENABLE | DISABLE } TRIGGER { ALL | trigger_name [ , …n ] } } < column_definition > ::= { column_name data_type } [ [ DEFAULT constant_expression ] [ WITH VALUES ] | [ IDENTITY [ ( seed , increment ) [ NOT FOR REPLICATION ] ] ] ] [ ROWGUIDCOL ] [ COLLATE < collation_name > ] [ < column_constraint > ] [ …n ] < column_constraint > ::= [ CONSTRAINT constraint_name ] { [ NULL | NOT NULL ] | [ { PRIMARY KEY | UNIQUE } [ CLUSTERED | NONCLUSTERED ] [ WITH FILLFACTOR = fillfactor ] [ ON { filegroup | DEFAULT } ] ] | [ [ FOREIGN KEY ] REFERENCES ref_table [ ( ref_column ) ] [ ON DELETE { CASCADE | NO ACTION } ] [ ON UPDATE { CASCADE | NO ACTION } ] [ NOT FOR REPLICATION ] ] | CHECK [ NOT FOR REPLICATION ] ( logical_expression ) } < table_constraint > ::= [ CONSTRAINT constraint_name ] { [ { PRIMARY KEY | UNIQUE } [ CLUSTERED | NONCLUSTERED ] { ( column [ , …n ] ) } [ WITH FILLFACTOR = fillfactor ] [ ON { filegroup | DEFAULT } ] ] | FOREIGN KEY [ ( column [ , …n ] ) ] REFERENCES ref_table [ ( ref_column [ , …n ] ) ] [ ON DELETE { CASCADE | NO ACTION } ] [ ON UPDATE { CASCADE | NO ACTION } ] [ NOT FOR REPLICATION ] | DEFAULT constant_expression [ FOR column ] [ WITH VALUES ] | CHECK [ NOT FOR REPLICATION ] ( search_conditions )

matlab 能动态生成Table么?

matlab可以动态生成Table。方法如下:

B={‘factor’,’category’,’amount’};

C=cat(1,B,num2cell(A));

在matlab里面的cell,

可以输出excel,

xlswrite(‘C:\temp\test.xls’,C);

生成性学习的最初提出者是维特罗克(Wittrock,1986),它属于结构主义的一种教学方法。生成性教学是指在弹性预设的前提下,在教学的展开过程中由教师和学生根据不同的教学情境自主构建教学活动的过程。例如,可以成功地教会学生对所学材料提问题、作总结和类比,等等。这些生成性活动都有益于学生的学习。而新课标要求在教学中必须注重培养这种生成性的教学模式。

生成:是生长和建构,是根据课堂教学本身的进行状态而产生的动态形成的活动过程,具有丰富性和生成性。新课程的最高宗旨和核心理念是“一切为了每一个学生的发展”。而“发展”却是一个动态的生成过程,这个过程中的因素和情景无法预见,也就产生出许多的生成性问题。生成可分为两种,一类是我们预设下的现象,另一类是不曾预设到的现象。“动态生成”是新课程理念下课堂教学的主要特征,它强调课堂教学要改变传统课堂教学固定不变、按部就班、机械僵化的教学模式,主张课堂教学必须构建生成性的探究性活动过程。

java hashmap什么时候做rehash

HashMap是对数据结构中哈希表(Hash Table)的实现,Hash表又叫散列表。Hash表是根据关键码Key来访问其对应的值Value的数据结构,它通过一个映射函数把关键码映射到表中一个位置来访问该位置的值,从而加快查找的速度。这个映射函数叫做Hash函数,存放记录的数组叫做Hash表。

在Java中,HashMap的内部实现结合了链表和数组的优势,链接节点的数据结构是Entry,每个Entry对象的内部又含有指向下一个Entry类型对象的引用,如以下代码所示: static class Entry implements Map.Entry { final K key; V value; Entry next; //Entry类型内部有一个自己类型的引用,指向下一个Entry final int hash; … } 在HashMap的构造函数中可以看到,Entry表被申明为了数组,如以下代码所示: public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; threshold = (int)(DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR); table = new Entry[DEFAULT_INITIAL_CAPACITY]; init(); } 在以上构造函数中,默认的DEFAULT_INITIAL_CAPACITY值为16,DEFAULT_LOAD_FACTOR的值为0.75。 当put一个元素到HashMap中去时,其内部实现如下: public V put(K key, V value) { if (key == null) return putForNullKey(value); int hash = hash(key.hashCode()); int i = indexFor(hash, table.length); … }

谁能给个SQL中用CREATE TABLE 创建数据库表的建表事例,急

–创建一个企业表

drop table dbo.RS_Department;–如果存在,删除表

CREATE TABLE dbo.RS_Department (

BH numeric(2) NOT NULL, –部门编码

MId numeric(10) NOT NULL, –代码

CONSTRAINT PK_RS_Department PRIMARY KEY (BH,MID),

UpId numeric(10), –上级部门编码

Xh numeric(2), –序号

MName varchar(30), –部门名称

DepartId varchar(10), –部门编号

FZR varchar(20), –负责人

CLSJ datetime, –创建时间

BZ varchar(12) –职务

);

帮我解释下SQL建表命令的意思(翻译,详细点谢谢大哥OR大姐)

参数

database_name

是要在其中创建表的数据库名称。database_name 必须是现有数据库的名称。如果不指定数据库,database_name 默认为当前数据库。当前连接的登录必须在 database_name 所指定的数据库中有关联的现有用户 ID,而该用户 ID 必须具有创建表的权限。

owner

是新表所有者的用户 ID 名,owner 必须是 database_name 所指定的数据库中的现有用户 ID,owner 默认为与 database_name 所指定的数据库中的当前连接相关联的用户 ID。如果 CREATE TABLE 语句由 sysadmin 固定服务器角色成员或 database_name 所指定的数据库中的 db_dbowner 或 db_ddladmin 固定数据库角色成员执行,则 owner 可以指定与当前连接的登录相关联的用户 ID 以外的其它用户 ID。如果与执行 CREATE TABLE 语句的登录相关联的用户 ID 仅具有创建表的权限,则 owner 必须指定与当前登录相关联的用户 ID。sysadmin 固定服务器角色成员或别名为 dbo 用户的登录与用户 ID dbo 相关联;因此,由这些用户创建的表的默认所有者为 dbo。不是由上述两种角色的登录创建的表所有者默认为与该登录相关联的用户 ID。

table_name

是新表的名称。表名必须符合标识符规则。数据库中的 owner.table_name 组合必须唯一。table_name 最多可包含 128 个字符,但本地临时表的表名(名称前有一个编号符 #)最多只能包含 116 个字符。

column_name

是表中的列名。列名必须符合标识符规则,并且在表内唯一。以 timestamp 数据类型创建的列可以省略 column_name。如果不指定 column_name,timestamp 列的名称默认为 timestamp。

computed_column_expression

是定义计算列值的表达式。计算列是物理上并不存储在表中的虚拟列。计算列由同一表中的其它列通过表达式计算得到。例如,计算列可以这样定义:cost AS price * qty。表达式可以是非计算列的列名、常量、函数、变量,也可以是用一个或多个运算符连接的上述元素的任意组合。表达式不能为子查询。

计算列可用于选择列表、WHERE 子句、ORDER BY 子句或任何其它可使用常规表达式的位置,但下列情况除外:

计算列不能用作 DEFAULT 或 FOREIGN KEY 约束定义,也不能与 NOT NULL 约束定义一起使用。但是,如果计算列由具有确定性的表达式定义,并且索引列中允许计算结果的数据类型,则可将该列用作索引中的键列,或用作 PRIMARY KEY 或 UNIQUE 约束的一部分。

例如,如果表中含有整型列 a 和 b,则可以在计算列 a+b 上创建索引。但不能在计算列 a+DATEPART(dd, GETDATE()) 上创建索引,因为在以后的调用中,其值可能发生改变。

计算列不能作为 INSERT 或 UPDATE 语句的目标。

说明 表中计算列所使用的列值因行而异,因此每行的计算列值可能不同。

计算列的为空性是由 SQL Server 根据使用的表达式自动确定的。即使只有不可为空的列,大多数表达式的结果也认为是可为空的,因为可能的下溢或溢出也将生成 NULL 结果。使用 COLUMNPROPERTY 函数(AllowsNull 属性)查看表中任何计算列的为空性。通过指定 ISNULL(check_expression, constant),其中常量为替代任何 NULL 结果的非 NULL 值,可为空的表达式 expr 可以转换为不可为空的表达式。

ON {filegroup | DEFAULT}

指定存储表的文件组。如果指定 filegroup,则表将存储在指定的文件组中。数据库中必须存在该文件组。如果指定 DEFAULT,或者根本未指定 ON 参数,则表存储在默认文件组中。

ON {filegroup | DEFAULT} 也可以在 PRIMARY KEY 约束或 UNIQUE 约束中指定。这些约束会创建索引。如果指定 filegroup,则索引将存储在指定的文件组中。如果指定 DEFAULT,则索引将存储在默认文件组中。如果约束中没有指定文件组,则索引将与表存储在同一文件组中。如果 PRIMARY KEY 约束或 UNIQUE 约束创建聚集索引,则表的数据页将与索引存储在同一文件组中。

说明 在 ON {filegroup | DEFAULT} 和 TEXTIMAGE_ON {filegroup | DEFAULT} 的上下文中,DEFAULT 并不是关键字。DEFAULT 是默认文件组的标识符并需对其进行定界,如 ON “DEFAULT”、ON [DEFAULT] 和 TEXTIMAGE_ON “DEFAULT” 或 TEXTIMAGE_ON [DEFAULT]。

TEXTIMAGE_ON

是表示 text、ntext 和 image 列存储在指定文件组中的关键字。如果表中没有 text、ntext 或 image 列,则不能使用 TEXTIMAGE ON。如果没有指定 TEXTIMAGE_ON,则 text、ntext 和 image 列将与表存储在同一文件组中。

data_type

指定列的数据类型。可以是系统数据类型或用户定义数据类型。用户定义数据类型必须先用 sp_addtype 创建,然后才能在表定义中使用。

在 CREATE TABLE 语句中,用户定义数据类型的 NULL/NOT NULL 赋值可被替代。但长度标准不能更改;不能在 CREATE TABLE 语句中指定用户定义数据类型的长度。

DEFAULT

如果在插入过程中未显式提供值,则指定为列提供的值。DEFAULT 定义可适用于除定义为 timestamp 或带 IDENTITY 属性的列以外的任何列。除去表时,将删除 DEFAULT 定义。只有常量值(如字符串)、系统函数(如 SYSTEM_USER())或 NULL 可用作默认值。为保持与 SQL Server 早期版本的兼容,可以给 DEFAULT 指派约束名。

constant_expression

是用作列的默认值的常量、NULL 或系统函数。

IDENTITY

表示新列是标识列。当向表中添加新行时,Microsoft® SQL Server™ 将为该标识列提供一个唯一的、递增的值。标识列通常与 PRIMARY KEY 约束一起用作表的唯一行标识符。可以将 IDENTITY 属性指派给 tinyint、smallint、int、bigint、decimal(p,0) 或 numeric(p,0) 列。对于每个表只能创建一个标识列。不能对标识列使用绑定默认值和 DEFAULT 约束。必须同时指定种子和增量,或者二者都不指定。如果二者都未指定,则取默认值 (1,1)。

seed

是装入表的第一行所使用的值。

increment

是添加到前一行的标识值的增量值。

NOT FOR REPLICATION

表示当复制登录(如 sqlrepl)向表中插入数据时,不强制 IDENTITY 属性。复制的行必须保留发布数据库中所赋予的键值;NOT FOR REPLICATION 子句确保不向复制进程所插入的行赋予新的标识值。其它登录所插入的行仍然具有以通常的方式创建的新标识值。建议同时使用具有 NOT FOR REPLICATION 的 CHECK 约束,以确保赋予的标识值处于当前数据库所需的范围内。

ROWGUIDCOL

表示新列是行的全局唯一标识符列。对于每个表只能指派一个 uniqueidentifier 列作为 ROWGUIDCOL 列。ROWGUIDCOL 属性只能指派给 uniqueidentifier 列。如果数据库兼容级别小于或等于 65,则 ROWGUIDCOL 关键字无效。有关更多信息,请参见 sp_dbcmptlevel。

ROWGUIDCOL 属性并不强制列中所存储值的唯一性。该属性也不会为插入到表中的新行自动生成值。若要为每列生成唯一值,那么或者在 INSERT 语句中使用 NEWID 函数,或者将 NEWID 函数指定为该列的默认值。

collation_name

指定列的排序规则。排序规则名称既可以是 Windows 排序规则名称,也可以是 SQL 排序规则名称。collation_name 仅适用于数据类型为 char、varchar、text、nchar、nvarchar 及 ntext 的列。如果没有指定该参数,那么如果列的数据类型是用户定义的,则该列的排序规则就是用户定义数据类型的排序规则,否则就是数据库的默认排序规则。

有关 Windows 和 SQL 排序规则名称的更多信息,请参见 COLLATE。

CONSTRAINT

是可选关键字,表示 PRIMARY KEY、NOT NULL、UNIQUE、FOREIGN KEY 或 CHECK 约束定义的开始。约束是特殊属性,用于强制数据完整性并可以为表及其列创建索引。

constrain_name

是约束的名称。约束名在数据库内必须是唯一的。

NULL | NOT NULL

是确定列中是否允许空值的关键字。从严格意义上讲,NULL 不是约束,但可以使用与指定 NOT NULL 同样的方法指定。

PRIMARY KEY

是通过唯一索引对给定的一列或多列强制实体完整性的约束。对于每个表只能创建一个 PRIMARY KEY 约束。

UNIQUE

是通过唯一索引为给定的一列或多列提供实体完整性的约束。一个表可以有多个 UNIQUE 约束。

CLUSTERED | NONCLUSTERED

是表示为 PRIMARY KEY 或 UNIQUE 约束创建聚集或非聚集索引的关键字。PRIMARY KEY 约束默认为 CLUSTERED,UNIQUE 约束默认为 NONCLUSTERED。

在 CREATE TABLE 语句中只能为一个约束指定 CLUSTERED。如果在为 UNIQUE 约束指定 CLUSTERED 的同时又指定了 PRIMARY KEY 约束,则 PRIMARY KEY 将默认为 NONCLUSTERED。

[ WITH FILLFACTOR = fillfactor ]

指定 SQL Server 存储索引数据时每个索引页的充满程度。用户指定的 fillfactor 取值范围从 1 到 100。如果没有指定 fillfactor,则默认为 0。创建索引时,fillfactor 的值越低,不必分配新空间即可由新索引项使用的空间就越多。

FOREIGN KEY…REFERENCES

是为列中的数据提供引用完整性的约束。FOREIGN KEY 约束要求列中的每个值在被引用表中对应的被引用列中都存在。FOREIGN KEY 约束只能引用被引用表中为 PRIMARY KEY 或 UNIQUE 约束的列或被引用表中在 UNIQUE INDEX 内引用的列。

ref_table

是 FOREIGN KEY 约束所引用的表名。

(ref_column[,…n])

是 FOREIGN KEY 约束所引用的表中的一列或多列。

ON DELETE {CASCADE | NO ACTION}

指定当要创建的表中的行具有引用关系,并且从父表中删除该行所引用的行时,要对该行采取的操作。默认设置为 NO ACTION。

如果指定 CASCADE,则从父表中删除被引用行时,也将从引用表中删除引用行。如果指定 NO ACTION,SQL Server 将产生一个错误并回滚父表中的行删除操作。

例如,在 Northwind 数据库中,Orders 表和 Customers 表之间有引用关系。Orders.CustomerID 外键引用 Customers.CustomerID 主键。

如果对 Customers 表的某行执行 DELETE 语句,并且为 Orders.CustomerID 指定 ON DELETE CASCADE 操作,则 SQL Server 将在 Orders 表中检查是否有与被删除的行相关的一行或多行。如果存在相关行,则 Orders 表中的相关行将随 Customers 表中的被引用行一同删除。

反之,如果指定 NO ACTION,若在 Orders 表中至少有一行引用 Customers 表中要删除的行,则 SQL Server 将产生一个错误并回滚 Customers 表中的删除操作。

ON UPDATE {CASCADE | NO ACTION}

指定当要创建的表中的行具有引用关系,并且在父表中更新该行所引用的行时,要对该行采取的操作。默认设置为 NO ACTION。

如果指定 CASCADE,则在父表中更新被引用行时,也将在引用表中更新引用行。如果指定 NO ACTION,SQL Server 将产生一个错误并回滚父表中的行更新操作。

例如,在 Northwind 数据库中,Orders 表和 Customers 表之间有引用关系:Orders.CustomerID 外键引用 Customers.CustomerID 主键。

如果对 Customers 表的某行执行 UPDATE 语句,并且为 Orders.CustomerID 指定 ON UPDATE CASCADE 操作,则 SQL Server 将在 Orders 表中检查是否有与被更新行相关的一行或多行。如果存在相关行,则 Orders 表中的相关行将随 Customers 表中的被引用行一同更新。

反之,如果指定 NO ACTION,若在 Orders 表中至少有一行引用 Customers 行,则 SQL Server 将产生一个错误并回滚对 Customers 行的更新操作。

CHECK

是通过限制可输入到一列或多列中的可能值强制域完整性的约束。

NOT FOR REPLICATION

是用于防止在复制所使用的分发过程中强制 CHECK 约束的关键字。当表是复制发布的订户时,请不要直接更新订阅表,而要更新发布表,然后让复制进程将数据分发回订阅表。可以在订阅表上定义 CHECK 约束,以防用户修改订阅表。但是如果不使用 NOT FOR REPLICATION 子句,CHECK 约束同样会防止复制进程将修改从发布表分发给订阅表。NOT FOR REPLICATION 子句表示对用户的修改(而不是对复制进程)强加约束。

NOT FOR REPLICATION CHECK 约束适用于被更新记录的前像和后像,以防在复制范围中添加记录或从复制范围中删除记录。将检查所有删除和插入操作;如果操作在复制范围内,则拒绝执行该操作。

如果对标识符列使用此约束,则当复制用户更新标识列时,SQL Server 将允许不必重新计算表标识列的种子值。

logical_expression

是返回 TRUE 或 FALSE 的逻辑表达式。

column

是用括号括起来的一列或多列,在表约束中表示这些列用在约束定义中。

[ASC | DESC]

指定加入到表约束中的一列或多列的排序次序。默认设置为 ASC。

n

是表示前面的项可重复 n 次的占位符。

哈希值是什么?

哈希表类Hashtable

哈希表是一种重要的存储方式,也是一种常见的检索方法。其基本思想是将关系码的值作为自变量,通过一定的函数关系计算出对应的函数值,把这个数值解释为结点的存储地址,将结点存入计算得到存储地址所对应的存储单元。检索时采用检索关键码的方法。现在哈希表有一套完整的算法来进行插入、删除和解决冲突。在Java中哈希表用于存储对象,实现快速检索。

Java.util.Hashtable提供了种方法让用户使用哈希表,而不需要考虑其哈希表真正如何工作。

哈希表类中提供了三种构造方法,分别是:

public Hashtable()

public Hashtable(int initialcapacity)

public Hashtable(int initialCapacity,float loadFactor)

参数initialCapacity是Hashtable的初始容量,它的值应大于0。loadFactor又称装载因子,是一个0.0到1之间的float型的浮点数。它是一个百分比,表明了哈希表何时需要扩充,例如,有一哈希表,容量为100,而装载因子为0.9,那么当哈希表90%的容量已被使用时,此哈希表会自动扩充成一个更大的哈希表。如果用户不赋这些参数,系统会自动进行处理,而不需要用户操心。

Hashtable提供了基本的插入、检索等方法。

■插入

public synchronized void put(Object key,Object value)

给对象value设定一关键字key,并将其加到Hashtable中。若此关键字已经存在,则将此关键字对应的旧对象更新为新的对象Value。这表明在哈希表中相同的关键字不可能对应不同的对象(从哈希表的基本思想来看,这也是显而易见的)。

■检索

public synchronized Object get(Object key)

根据给定关键字key获取相对应的对象。

public synchronized boolean containsKey(Object key)

判断哈希表中是否包含关键字key。

public synchronized boolean contains(Object value)

判断value是否是哈希表中的一个元素。

■删除

public synchronized object remove(object key)

从哈希表中删除关键字key所对应的对象。

public synchronized void clear()

清除哈希表

另外,Hashtalbe还提供方法获取相对应的枚举集合:

public synchronized Enumeration keys()

返回关键字对应的枚举对象。

public synchronized Enumeration elements()

返回元素对应的枚举对象。

例1.5 Hashtable.java给出了使用Hashtable的例子。

例1.5 Hashtalbe.java。

//import java.lang.*;

import java.util.Hashtable;

import java.util.Enumeration;

public class HashApp{

public static void main(String args[]){

Hashtable hash=new Hashtable(2,(float)0.8);

//创建了一个哈希表的对象hash,初始容量为2,装载因子为0.8

hash.put(“Jiangsu”,”Nanjing”);

//将字符串对象“Jiangsu”给定一关键字“Nanjing”,并将它加入hash

hash.put(“Beijing”,”Beijing”);

hash.put(“Zhejiang”,”Hangzhou”);

System.out.println(“The hashtable hash1 is: “+hash);

System.out.println(“The size of this hash table is “+hash.size());

//打印hash的内容和大小

Enumeration enum1=hash.elements();

System.out.print(“The element of hash is: “);

while(enum1.hasMoreElements())

System.out.print(enum1.nextElement()+” “);

System.out.println();

//依次打印hash中的内容

if(hash.containsKey(“Jiangsu”))

System.out.println(“The capatial of Jiangsu is “+hash.get(“Jiangsu”));

hash.remove(“Beijing”);

//删除关键字Beijing对应对象

System.out.println(“The hashtable hash2 is: “+hash);

System.out.println(“The size of this hash table is “+hash.size());

}

}

运行结果:

The hashtable hash1 is: {Beijing=Beijing, Zhejiang=Hangzhou, Jiangsu=Nanjing}

The size of this hash table is 3

The element of hash is: Beijing Hangzhou Nanjing

The capatial of Jiangsu is Nanjing

The hashtable hash2 is: {Zhejiang=Hangzhou, Jiangsu=Nanjing}

The size of this hash table is 2

Hashtable是Dictionary(字典)类的子类。在字典类中就把关键字对应到数据值。字典类是一个抽象类。在java.util中还有一个类Properties,它是Hashtable的子类。用它可以进行与对象属性相关的操作。

stringsAsFactors=FALSE是什么意思 R语言

用read.table和其衍生品比如read.csv read.delim,R会自动把字符串string的列辨认成factor. 比如你有一个全班成绩数据集,第一列名字,第二列性别,第三列语文成绩,第四列数学成绩. 那么第一列和第二列如果你不告诉R stringsAsFactors=FALSE 那么R就把这两列认成因子模式factor了

HashMap是什么东西

java数据结构-HashMap 一直以来似乎都有一个错觉,认为map跟其他的集合类一样继承自Collection,其实不然,Map和Collection在结构层次上是没有任何关系的,通过查看源码可以发现map所有操作都是基于key-value对,而不是单独的元素。 下面以HashMap为例子,深入对Map的实现机制进行了解,在这个过程中,请打开jdk源码。 Hash算法 HashMap使用Hash算法,所以在解剖HashMap之间,需要先简单的了解Hash算法,Hash算法一般也成为散列算法,通过散列算法将任意的值转化成固定的长度输出,该输出就是散列值,这是一种压缩映射,也就是,散列值的空间远远小于输入的值空间。 简单的说,hash算法的意义在于提供了一种快速存取数据的方法,它用一种算法建立键值与真实值之间的对应关系,(每一个真实值只能有一个键值,但是一个键值可以对应多个真实值),这样可以快速在数组等里面存取数据。 下面我们建立一个HashMap,然后往里面放入12对key-value,这个HashMap的默认数组长度为16,我们的key分别存放在该数组的格子中,每个格子下面存放的元素又是以链表的方式存放元素。 public static void main(String[] args) { Map map = new HashMap(); map.put(“What”, “chenyz”); map.put(“You”, “chenyz”); map.put(“Don’t”, “chenyz”); map.put(“Know”, “chenyz”); map.put(“About”, “chenyz”); map.put(“Geo”, “chenyz”); map.put(“APIs”, “chenyz”); map.put(“Can’t”, “chenyz”); map.put(“Hurt”, “chenyz”); map.put(“you”, “chenyz”); map.put(“google”, “chenyz”); map.put(“map”, “chenyz”); map.put(“hello”, “chenyz”); } 当我们新添加一个元素时,首先我们通过Hash算法计算出这个元素的Hash值的hashcode,通过这个hashcode的值,我们就可以计算出这个新元素应该存放在这个hash表的哪个格子里面,如果这个格子中已经存在元素,那么就把新的元素加入到已经存在格子元素的链表中。 运行上面的程序,我们对HashMap源码进行一点修改,打印出每个key对象的hash值 What–>hash值:8 You–>hash值:3 Don’t–>hash值:7 Know–>hash值:13 About–>hash值:11 Geo–>hash值:12 APIs–>hash值:1 Can’t–>hash值:7 Hurt–>hash值:1 you–>hash值:10 google–>hash值:3 map–>hash值:8 hello–>hash值:0 计算出来的Hash值分别代表该key应该存放在Hash表中对应数字的格子中,如果该格子已经有元素存在,那么该key就以链表的方式依次放入格子中 从上表可以看出,Hash表是线性表和链表的综合所得,根据数据结构的定义,可以得出粗劣的结论,Hash算法的存取速度要比数组差一些,但是比起单纯的链表,在查找和存取方面却要好多。 如果要查找一个元素时,同样的方式,通过Hash函数计算出这个元素的Hash值hashcode,然后通过这个hashcode值,直接找到跟这个hash值相对应的线性格子,进如该格子后,对这个格子存放的链表元素逐个进行比较,直到找到对应的hash值。 在简单了解完Hash算法后,我们打开HashMap源码 初始化HashMap 下面我们看看Map map = new HashMap();这段代码究竟做了什么,发生了什么数据结构的变化。 HashMap中几个重要的属性 transient Entry[] table; 用来保存key-value的对象Entry数组,也就是Hash表 transient int size; 返回HashMap的键值对个数 final float loadFactor; 负载因子,用来决定Entry数组是否扩容的因子,HashMap默认是0.75f int threshold; 重构因子,(capacity * load factor)负载因子与Entry[]数组容积的乘值 public class HashMap extends AbstractMap implements Map, Cloneable, Serializable { int threshold; final float loadFactor; transient Entry[] table; static final float DEFAULT_LOAD_FACTOR = 0.75f; static final int DEFAULT_INITIAL_CAPACITY = 16; public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); // Find a power of 2 >= initialCapacity int capacity = 1; while (capacity < initialCapacity) capacity <<= 1; this.loadFactor = loadFactor; threshold = (int)(capacity * loadFactor); table = new Entry[capacity]; init(); } 以public HashMap(int initialCapacity, float loadFactor)构造函数为例,另外两个构造函数实际上也是以同种方式来构建HashMap. 首先是要确定hashMap的初始化的长度,这里使用的策略是循环查出一个大于initialCapacity的2的次方的数,例如initialCapacity的值是10,那么大于10的数是2的4次方,也就是16,capacity的值被赋予了16,那么实际上table数组的长度是16,之所以采用这样的策略来构建Hash表的长度,是因为2的次方运算对于计算机来说是有相当的效率。 loadFactor,被称为负载因子,HashMap的默认负载因子是0.75f threshold,接下来是重构因子,由负载因子和容量的乘机组成,它表示当HashMap元素被存放了多少个之后,需要对HashMap进行重构。 通过这一系列的计算和定义后,初始化Entry[] table; put(key,value) 接下来看一对key-value是如何被存放到HashMap中:put(key,value) public V put(K key, V value) { if (key == null) return putForNullKey(value); int hash = hash(key.hashCode()); int i = indexFor(hash, table.length); System.out.println(key+"-->hash值:”+i);//这就是刚才程序打印出来的key对应hash值 for (Entry e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(hash, key, value, i); return null; } static int hash(int h) { h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); } static int indexFor(int h, int length) { return h & (length-1); } 这里是整个hash的关键,请打开源码查看一步一步查看。 hash(key.hashCode()) 计算出key的hash码 //对于hash()的算法,这里有一篇分析很透彻的文章 indexFor(hash, table.length) 通过一个与算法计算出来,该key应在存放在Hash表的哪个格子中。 for (Entry e = table[i]; e != null; e = e.next) 然后再遍历table[i]格中的链表,判断是否已经存在一样的key,如果存在一样的key值,那么就用新的value覆盖旧的value,并把旧的value值返回。 addEntry(hash, key, value, i) 如果经过遍历链表没有发现同样的key,那么进行addEntry函数的操作,增加当前key到hash表中的第i个格子中的链表中 void addEntry(int hash, K key, V value, int bucketIndex) { Entry e = table[bucketIndex]; table[bucketIndex] = new Entry(hash, key, value, e); if (size++ >= threshold) resize(2 * table.length); } Entry e = table[bucketIndex]; 创建一个Entry对象来存放键值(ps:Entry对象是一个链表对象) table[bucketIndex] = new Entry(hash, key, value, e); 将Entry对象添加到链表中 if (size++ >= threshold) resize(2 * table.length); 最后将size进行自增,判断size值是否大于重构因子,如果大于那么就是用resize进行扩容重构。 void resize(int newCapacity) { Entry[] oldTable = table; int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } Entry[] newTable = new Entry[newCapacity]; transfer(newTable); table = newTable; threshold = (int)(newCapacity * loadFactor); } 这里为什么是否需要扩容重构,其实是涉及到负载因子的性能问题 loadFactor负载因子 上面说过loadFactor是一个hashMap的决定性属性,HashSet和HashMap的默认负载因子都是0.75,它表示,如果哈希表的容量超过3/4时,将自动成倍的增加哈希表的容量,这个值是权衡了时间和空间的成本,如果负载因子较高,虽然会减少对内存空间的需求,但也会增加查找数据的时间开销,无论是put()和get()都涉及到对数据进行查找的动作,所以负载因子是不适宜设置过高 get(key) 接下来看看get(key)做了什么 public V get(Object key) { if (key == null) return getForNullKey(); int hash = hash(key.hashCode()); for (Entry e = table[indexFor(hash, table.length)]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) return e.value; } return null; } 这些动作似乎是跟put(key,value)相识,通过hash算法获取key的hash码,再通过indexFor定位出该key存在于table的哪一个下表,获取该下标然后对下标中的链表进行遍历比对,如果有符合就直接返回该key的value值。 keySet() 这里还涉及另一个问题,上面说了HashMap是跟set没有任何亲属关系,但map也一样实现了keySet接口,下面谱析一下keySet在hashMap中是如何实现的,这里给出部分代码,请结合源码查看 public K next() { return nextEntry().getKey(); } final Entry nextEntry() { if (modCount != expectedModCount) throw new ConcurrentModificationException(); Entry e = next; if (e == null) throw new NoSuchElementException(); if ((next = e.next) == null) { Entry[] t = table; while (index < t.length && (next = t[index++]) == null) ; } current = e; return e; } 代码很简单,就是对每个格子里面的链表进行遍历,也正是这个原因,当我们依次将key值put进hashMap中,但在使用map.entrySet().iterator()进行遍历时候却不是put时候的顺序。 扩容 在前面说到put函数的时候,已经提过了扩容的问题 if (size++ >= threshold) resize(2 * table.length); 这里一个是否扩容的判断,当数据达到了threshold所谓的重构因子,而不是HashMap的最大容量,就进行扩容。 void resize(int newCapacity) { Entry[] oldTable = table; int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } Entry[] newTable = new Entry[newCapacity]; transfer(newTable); table = newTable; threshold = (int)(newCapacity * loadFactor); } void transfer(Entry[] newTable) { Entry[] src = table; int newCapacity = newTable.length; for (int j = 0; j < src.length; j++) { Entry e = src[j]; if (e != null) { src[j] = null; do { Entry next = e.next; int i = indexFor(e.hash, newCapacity); e.next = newTable[i]; newTable[i] = e; e = next; } while (e != null); } } } transfer方法实际上是将所有的元素重新进行一些hash,这是因为容量变化了,每个元素相对应的hash值也会不一样。 使用HashMap 1.不要再高并发中使用HashMap,HashMap是线程不安全,如果被多个线程共享之后,将可能发生不可预知的问题。 2.如果数据大小事固定的,最好在初始化的时候就给HashMap一个合理的容量值,如果使用new HashMap()默认构造函数,重构因子的值是16*0.75=12,当HashMap的容量超过了12后,就会进行一系列的扩容运算,重建一个原来成倍的数组,并且对原来存在的元素进行重新的hash运算,如果你的数据是有成千上万的,那么你的成千上万的数据也要跟这你的扩容不断的hash,这将产生高额的内存和cpu的大量开销。 当然啦,HashMap的函数还有很多,不过都是基于table的链表进行操作,当然也就是hash算法,Map & hashMap在平时我们的应用非常多,最重要的是我们要对每句代码中每块数据结构变化心中有数。 上面主要是参考了jdk源码,数据结构和一些相关资料本着好记性不如烂博客的精神记录下来,希望朋友们如果发觉哪里不对请指出来,虚心请教