Hadoop+Spark大数据技术(微课版)曾国荪、曹洁版思维导图第五次作业 第五章 Scala基础与编程

本文主要是介绍Hadoop+Spark大数据技术(微课版)曾国荪、曹洁版思维导图第五次作业 第五章 Scala基础与编程,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  • 第五次作业

    • 1. 简述Scala语言的基本特性

      • 1. 面向对象:Scala是一种完全面向对象的语言。其每一种数据类型都是一个对象,这使得它具有非常统一的模型。

      • 2. 函数式编程:Scala同时支持函数式编程,它拥有高阶函数、闭包、不可变数据结构、递归等函数式编程的关键特性。

      • 3. 扩展性:Scala的语法非常灵活,允许开发者自定义运算符和语法糖。也支持模式匹配、类型推断和匿名函数等高级特性,这些都为编写简洁、高效的代码提供了可能。此外,Scala的语法允许在单个文件中定义类、对象、函数等,使得代码组织更加灵活。

      • 4. 并发性:Scala支持Actor模型(处理并发的轻量级机制)。通过Actor,可以编写出线程安全的、易于管理的并发代码,有效地利用多核处理器资源。

      • 5. 可以和Java混编:Scala运行在Java虚拟机(JVM)上,并兼容Java的API。可以直接使用Java库,或者在Scala代码中调用Java方法,反之亦然。这为已有的Java项目提供了无缝迁移到Scala的可能,也使得Scala成为一个非常实用的工具,可以在不完全重构的情况下逐步引入新的编程范式。

    • 2. 简述Scala语言的9种基本数据类型。 说明关键字Unit、Nothing、Any的含义。

      • Unit无返回值,通常用于不返回任何内容的方法。

      • Nothing是任何其他类型的子类,用于表示永远不会正常终止的程序部分。

      • Any是所有其他类型的超类(父类)

    • 3. 简述Scala中数组、列表、集合、元组、映射的名称及特点。

      • 数组(Array):固定大小的集合,元素类型相同,性能较好但不支持动态修改大小。

      • 列表(List):不可变的序列集合,适合于递归处理和模式匹配,但头部插入和删除效率低。

      • 集合(Set):无序且不重复元素的集合,分为可变和不可变两种。

      • 元组(Tuple):固定长度、不同类型的元素组合,最多支持22个元素,常用于同时携带多种类型信息。

      • 映射(Map):键值对的集合,键唯一,分为可变和不可变两种,适合快速查找。

    • 4. 举例说明匿名函数和高阶函数的含义,

      • 匿名函数

        • 也称为Lambda函数。箭头“=>”定义,箭头的左边是参数列表,箭头的右边是表达式,表达式的值即匿名函数的返回值。 在代码中直接定义的函数,没有具体的函数名。通常用于一些简单的、一次性的操作。

          • val sum = (x: Int, y: Int) => x + y

          • val result = sum(3, 5) /

          • / result = 8

      • 高阶函数

        • 高阶函数是指使用其他函数作为参数,或者返回一个函数作为结果的函数。

          • val numbers = List(1, 2, 3, 4)

          • val doubled = numbers.map(x => x * 2)

          • // doubled = List(2, 4, 6, 8)

    • 5. 阅读、分析下列程序段,并给出运行结果。

      (1)       var v = 0for (i <- 1 to 9) {for (j <- 1 to i) {v = i*jprint(f"$j%s*$i%s=$v%-3s")}println()}
      (2)          val a = Array("Hello Spark","Hello Hadoop","Hello Scala")val b = a.flatMap(_.split(" ")).map((_,1)).groupBy(t => t._1).map(t => (t._1,t._2.length)).toList.sortBy(t => t._2).reverseb.foreach(x => println(x))
      (3)       class Person(val namec:String,val agec:Int) {var name:String = namecvar age:Int = agecdef printPerson() : Unit = {printf(f"name:$name%8s, age:$age%-4d")}}object Test2 {def main(args:Array[String]):Unit = {val x = new Person("zhang",21)x.printPerson()}}
      (4)        val a = List(("a",85),("b",95),("c",75),("a",95))a.groupBy(_._1)
      (5)       val s = List("Spark","Python","Hadoop","HBase")s.foreach(e => print(e+" "))print(s.count(e => e.length == 5))
      (1) 九九乘法表
      这段代码使用嵌套循环打印九九乘法表。外层循环控制行数,内层循环控制每行打印的乘法算式。
      运行结果:
      ```
      1*1=1   
      1*2=2   2*2=4   
      1*3=3   2*3=6   3*3=9   
      ...
      1*9=9   2*9=18  3*9=27  ... 8*9=72  9*9=81  
      ```(2) 单词计数
      这段代码统计字符串数组中每个单词出现的次数,并按出现次数降序排列。
      步骤解析:
      1. `flatMap(_.split(" "))`:将每个字符串按空格分割成单词列表,并合并成一个新的列表。
      2. `map((_,1))`:将每个单词映射成一个元组,元组的第一个元素是单词本身,第二个元素是 1。
      3. `groupBy(t => t._1)`:按照单词分组。
      4. `map(t => (t._1,t._2.length))`:统计每个单词出现的次数。
      5. `toList.sortBy(t => t._2).reverse`:将结果转换为列表,并按出现次数降序排列。
      运行结果:
      ```
      (Hello,3)
      (Spark,1)
      (Scala,1)
      (Hadoop,1)
      ```(3) 类定义与对象创建
      这段代码定义了一个 `Person` 类,并创建了一个 `Person` 对象,然后调用该对象的 `printPerson` 方法打印信息。
      运行结果:
      ```
      name:zhang    , age:21  
      ```(4) 按第一个元素分组
      这段代码将列表 `a` 按照元组的第一个元素分组。
      结果:
      ```
      Map(a -> List((a,85), (a,95)), b -> List((b,95)), c -> List((c,75)))
      ```(5) 字符串操作
      这段代码遍历字符串列表 `s` 并打印每个元素,然后统计长度为 5 的字符串个数。
      运行结果:
      ```
      Spark Python Hadoop HBase 2
      ``` 
      

这篇关于Hadoop+Spark大数据技术(微课版)曾国荪、曹洁版思维导图第五次作业 第五章 Scala基础与编程的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/945474

相关文章

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

Python中随机休眠技术原理与应用详解

《Python中随机休眠技术原理与应用详解》在编程中,让程序暂停执行特定时间是常见需求,当需要引入不确定性时,随机休眠就成为关键技巧,下面我们就来看看Python中随机休眠技术的具体实现与应用吧... 目录引言一、实现原理与基础方法1.1 核心函数解析1.2 基础实现模板1.3 整数版实现二、典型应用场景2

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

C#基础之委托详解(Delegate)

《C#基础之委托详解(Delegate)》:本文主要介绍C#基础之委托(Delegate),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1. 委托定义2. 委托实例化3. 多播委托(Multicast Delegates)4. 委托的用途事件处理回调函数LINQ

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个

Python异步编程中asyncio.gather的并发控制详解

《Python异步编程中asyncio.gather的并发控制详解》在Python异步编程生态中,asyncio.gather是并发任务调度的核心工具,本文将通过实际场景和代码示例,展示如何结合信号量... 目录一、asyncio.gather的原始行为解析二、信号量控制法:给并发装上"节流阀"三、进阶控制

SpringBoot整合jasypt实现重要数据加密

《SpringBoot整合jasypt实现重要数据加密》Jasypt是一个专注于简化Java加密操作的开源工具,:本文主要介绍详细介绍了如何使用jasypt实现重要数据加密,感兴趣的小伙伴可... 目录jasypt简介 jasypt的优点SpringBoot使用jasypt创建mapper接口配置文件加密