大数据中为什么使用scala?
原创
©著作权归作者所有:来自51CTO博客作者chenyanlong的原创作品,请联系作者获取转载授权,否则将追究法律责任
原因:
- 开发大数据应用程序 (Spark程序、Flink程序 )
Hadoop已经是我们大数据领域的事实标准了。Spark生态并不是要取代Hadoop生态,而是为了更好的拓展大数据生态,两者结合。而Spark由我们Scala开发的,我们学习Scala为了更好的去学习Spark。
- 表达能力强,一行代码抵得上Java多行,开发速度快。 优雅,代码简介逻辑更加清晰。
- 兼容Java,可以访问庞大的Java类库,例如:操作mysql、redis、freemarker、activemq等等
案例对比:
假设定义三个实体类(用户、订单、商品)
java代码实现:
用户实体类:
/**
* 用户实体类
*/
public class User {
private String name;
private List<Order> orders;
public String getName() {
return name;
}
public void setName(String name) {
this.name = name;
}
public List<Order> getOrders() {
return orders;
}
public void setOrders(List<Order> orders) {
this.orders = orders;
}
}
订单实体类:
/**
* 订单实体类
*/
public class Order {
private int id;
private List<Product> products;
public int getId() {
return id;
}
public void setId(int id) {
this.id = id;
}
public List<Product> getProducts() {
return products;
}
public void setProducts(List<Product> products) {
this.products = products;
}
}
商品实体类:
/**
* 商品实体类
*/
public class Product {
private int id;
private String category;
public int getId() {
return id;
}
public void setId(int id) {
this.id = id;
}
public String getCategory() {
return category;
}
public void setCategory(String category) {
this.category = category;
}
}
Scala代码:
case class User(var name:String, var orders:List[Order]) // 用户实体类
case class Order(var id:Int, var products:List[Product]) // 订单实体类
case class Product(var id:Int, var category:String) // 商品实体类
总结
看到这里是不是已经对scala爱不释手了,在接下来的几天,我会把系统的把scala的基础用法介绍一下。