原因:

  • 开发大数据应用程序 (Spark程序、Flink程序 )

Hadoop已经是我们大数据领域的事实标准了。Spark生态并不是要取代Hadoop生态,而是为了更好的拓展大数据生态,两者结合。而Spark由我们Scala开发的,我们学习Scala为了更好的去学习Spark。

  • 表达能力强,一行代码抵得上Java多行,开发速度快。 优雅,代码简介逻辑更加清晰。
  • 兼容Java,可以访问庞大的Java类库,例如:操作mysql、redis、freemarker、activemq等等

 案例对比:

假设定义三个实体类(用户、订单、商品)

java代码实现:

用户实体类:

/**
* 用户实体类
*/
public class User {
private String name;
private List<Order> orders;

public String getName() {
return name;
}

public void setName(String name) {
this.name = name;
}

public List<Order> getOrders() {
return orders;
}

public void setOrders(List<Order> orders) {
this.orders = orders;
}
}

 订单实体类:

/**
* 订单实体类
*/
public class Order {
private int id;
private List<Product> products;

public int getId() {
return id;
}

public void setId(int id) {
this.id = id;
}

public List<Product> getProducts() {
return products;
}

public void setProducts(List<Product> products) {
this.products = products;
}
}

商品实体类:

/**
* 商品实体类
*/
public class Product {
private int id;
private String category;

public int getId() {
return id;
}

public void setId(int id) {
this.id = id;
}

public String getCategory() {
return category;
}

public void setCategory(String category) {
this.category = category;
}
}

 

Scala代码:

case class User(var name:String, var orders:List[Order])  // 用户实体类
case class Order(var id:Int, var products:List[Product]) // 订单实体类
case class Product(var id:Int, var category:String) // 商品实体类

总结

    看到这里是不是已经对scala爱不释手了,在接下来的几天,我会把系统的把scala的基础用法介绍一下。