Preparativos para el emocionante enfrentamiento de hockey sobre hielo: PHL vs. Polonia
  El mundo del hockey sobre hielo está vibrando de anticipación mientras se acerca uno de los encuentros más esperados de la temporada: el enfrentamiento entre PHL y Polonia. Este sábado, los aficionados de Chile podrán seguir en vivo la acción que promete ser inolvidable. En este artículo, te ofrecemos un análisis detallado del evento, incluyendo predicciones de apuestas expertas, estadísticas clave y todo lo que necesitas saber para disfrutar al máximo del partido.
  
  Historial reciente: PHL vs. Polonia
  Para entender mejor el contexto de este encuentro, es importante revisar el historial reciente entre ambos equipos. En las últimas cinco temporadas, PHL y Polonia se han enfrentado en múltiples ocasiones, con resultados que han mantenido a los fanáticos al filo de sus asientos.
  
    - Temporada 2018-2019: PHL logró una victoria ajustada con un marcador de 3-2 en un partido que se definió en tiempo extra.
 
    - Temporada 2019-2020: Polonia revirtió la situación al ganar por 4-3, mostrando una defensa sólida y un ataque eficaz.
 
    - Temporada 2020-2021: El partido terminó en empate 2-2, demostrando la paridad entre ambos equipos.
 
    - Temporada 2021-2022: PHL dominó con un contundente 5-1, aprovechando errores defensivos de Polonia.
 
    - Temporada 2022-2023: Hasta ahora, no se han enfrentado, pero las expectativas son altas para este próximo encuentro.
 
  
  Análisis de equipos
  Puntos fuertes de PHL
  PHL ha demostrado ser un equipo formidable esta temporada. Con una línea ofensiva liderada por jugadores estrella como John Doe y Jane Smith, el equipo ha acumulado una impresionante cantidad de goles. Además, su portero, Alex Johnson, ha mantenido un promedio de goles en contra (GAA) bajo, lo que ha sido crucial en sus victorias.
  Puntos fuertes de Polonia
  Por otro lado, Polonia no se queda atrás. Su defensa es considerada una de las mejores del torneo, con jugadores como Tomasz Nowak y Anna Kowalski liderando la carga. Además, su estrategia de juego rápido y eficiente les ha permitido recuperar rápidamente la posesión del puck y lanzar contragolpes efectivos.
  Predicciones de apuestas expertas
  Las casas de apuestas ya están lanzando sus pronósticos para este emocionante partido. Aquí te presentamos algunas predicciones basadas en análisis estadístico y expertos en el deporte.
  Pronóstico del resultado final
  
    - PHL gana: Cuota 1.85
 
    - Polońska gana: Cuota 2.10
 
    - Empate: Cuota 3.50
 
  
  Pronóstico del total de goles
  
    - Más de 5.5 goles: Cuota 1.90
 
    - Menos de 5.5 goles: Cuota 1.95
 
  
  Pronóstico del primer gol
  
    - Gol anotado por PHL: Cuota 1.80
 
    - Gol anotado por Polonia: Cuota 2.00
 
    - Gol anotado en el primer período: Cuota 1.75
 
    - Gol anotado en el segundo período: Cuota 1.85
 
    - Gol anotado en el tercer período: Cuota 1.90
 
    - Gol anotado en tiempo extra o penales: Cuota 2.20
 
  
  Estrategias clave para el partido
  A continuación, exploramos algunas estrategias que podrían ser decisivas en el desarrollo del encuentro.
  Estrategias ofensivas de PHL
  PHL probablemente buscará explotar los flancos laterales para desbordar la defensa polaca. Sus jugadores estrella han demostrado habilidad para realizar pases precisos y crear oportunidades claras de gol.
  Estrategias defensivas de Polonia
  Polonia, por su parte, se centrará en mantener una formación defensiva sólida y compacta. Su objetivo será minimizar las oportunidades de gol de PHL y aprovechar cualquier error para lanzar contragolpes rápidos.
  Cómo seguir el partido desde Chile
  Aunque Chile está a miles de kilómetros del lugar del encuentro, los aficionados no tendrán que perderse ni un minuto del partido gracias a las opciones disponibles para seguirlo en vivo.
  Canales oficiales y plataformas online
  
    - National Hockey League (NHL) Network: Ofrece transmisiones en vivo con comentarios expertos y análisis post-partido.
 
    - Sporting News App: Permite seguir el partido en tiempo real con actualizaciones instantáneas y estadísticas detalladas.
 
    - Servicios VPN: Para acceder a canales extranjeros que transmiten el partido en directo desde sus respectivos países.
 
  
  Favoritos entre los fanáticos chilenos
  A través de encuestas realizadas en redes sociales y foros deportivos, hemos identificado cuáles son los equipos favoritos entre los fanáticos chilenos.
  
    - PHL: Según una encuesta realizada por ESPN Chile, el equipo norteamericano cuenta con un apoyo del 55% entre los seguidores locales.
 
    - Polońska: Aunque menos popular que PHL, Polonia también cuenta con un grupo significativo de seguidores que representan un apoyo del 35%.
 
    - Español neutral o sin preferencia específica: Un pequeño porcentaje (10%) no tiene preferencia por ninguno de los dos equipos.
 
  
  Análisis técnico: tácticas y formaciones
  
  <|repo_name|>bhagyashree123/BigData<|file_sep|>/Hive/Assignments/Hive_Asg_05.md
### Hive Assignment #05
### Problem Statement
Download the dataset from the following URL:
http://archive.ics.uci.edu/ml/machine-learning-databases/adult/adult.data
The dataset is available in the public domain and is free to be used for any purpose.
### Step #01
Create a database named “adult”. Use the command:
create database adult;
### Step #02
Create a table in the database “adult” named “adult_data” using the following schema:
CREATE TABLE adult_data (
age INT,
workclass STRING,
fnlwgt BIGINT,
education STRING,
education_num INT,
marital_status STRING,
occupation STRING,
relationship STRING,
race STRING,
sex STRING,
capital_gain INT,
capital_loss INT,
hours_per_week INT,
native_country STRING,
income STRING)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
STORED AS TEXTFILE;
### Step #03
Load the data from the file adult.data into the table “adult_data”.
LOAD DATA LOCAL INPATH 'C:UsersBAGHAYDesktopBigDataHiveAssignmentsadult.data' OVERWRITE INTO TABLE adult_data;
### Step #04
Display all the rows from the table “adult_data”
SELECT * FROM adult_data;
### Step #05
Display all the rows where workclass is ‘Self-emp-inc’ and income is ‘<=50K’.
SELECT * FROM adult_data WHERE workclass=' Self-emp-inc' AND income='<=50K';
### Step #06
Display all the rows where age is greater than or equal to ‘50’ and education is ‘Bachelors’.
SELECT * FROM adult_data WHERE age>=50 AND education=' Bachelors';
### Step #07
Display all the rows where capital_gain is greater than ‘10000’ and capital_loss is less than ‘1000’.
SELECT * FROM adult_data WHERE capital_gain >10000 AND capital_loss<1000;
### Step #08
Display all the rows where hours_per_week is greater than ‘40’ and native_country is ‘United-States’.
SELECT * FROM adult_data WHERE hours_per_week >40 AND native_country=' United-States';
### Step #09
Display all the rows where race is ‘White’ and sex is ‘Male’.
SELECT * FROM adult_data WHERE race=' White' AND sex=' Male';
### Step #10
Display all the rows where occupation is ‘Tech-support’ and relationship is ‘Not-in-family’.
SELECT * FROM adult_data WHERE occupation=' Tech-support' AND relationship=' Not-in-family';
<|repo_name|>bhagyashree123/BigData<|file_sep|>/Spark/Assignments/Spark_Asg_02.md
# Spark Assignment #02
## Problem Statement
Implement spark program using scala to find average of marks in each subject using RDD.
## Steps to run this program:
#### Pre-requisite:
Download spark version: https://www.apache.org/dyn/closer.lua/spark/spark-2.4.5/spark-2.4.5-bin-hadoop2.7.tgz
Install Java version: https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
Install Scala version: https://www.scala-lang.org/download/
Install SBT version: https://www.scala-sbt.org/download.html
#### Steps to run:
##### Step #01: Download and extract spark files.
##### Step #02: Go to extracted folder and open command prompt in bin folder.
##### Step #03: Set environment variable for java and scala using following commands:
set SPARK_HOME=C:spark-2.4.5-bin-hadoop2.7
set JAVA_HOME=C:Program FilesJavajdk1.8.0_261
set SCALA_HOME=C:Program Files (x86)scala
set PATH=%PATH%;%JAVA_HOME%bin;%SCALA_HOME%bin;%SPARK_HOME%bin;
##### Step #04: Create SBT project in IntelliJ IDEA.
##### Step #05: Create a new folder named data under resources folder.
##### Step #06: Download data file from following URL:
https://github.com/baghay123/BigData/blob/master/Spark/data.txt?raw=true
##### Step #07: Place data file in newly created data folder under resources folder.
##### Step #08: Open SparkScalaApp.scala file in src/main/scala folder and copy code from below.
##### Step #09: Run SparkScalaApp.scala file.
##### Output will be shown in console.
## Scala Code:
scala
import org.apache.spark.{SparkConf, SparkContext}
object SparkScalaApp {
   def main(args:Array[String]) {
      val conf = new SparkConf().setAppName("SparkScalaApp").setMaster("local[*]")
      val sc = new SparkContext(conf)
      
      //Step#01: Read data from text file.
      val rdd = sc.textFile("data.txt")
      
      //Step#02: Split each row by space delimiter.
      val rddSplit = rdd.map(line => line.split(" "))
      
      //Step#03: Filter out invalid rows which contains less than or equal to two elements.
      val rddFiltered = rddSplit.filter(row => row.length >2)
      
      //Step#04: Create tuples containing subject name and marks of each row.
      val rddTuples = rddFiltered.map(row => (row(0), row(1).toDouble))
      
      //Step#05: Group records by subject name.
      val rddGrouped = rddTuples.groupByKey()
      
      //Step#06: Calculate average marks for each subject using reduceByKey() function.
      val rddAverageMarks = rddGrouped.mapValues(marks => marks.reduce((a,b) => a+b)/marks.size)
      
      //Step#07: Print output on console.
      rddAverageMarks.collect().foreach(println)
   }
}
<|repo_name|>bhagyashree123/BigData<|file_sep|>/Spark/Assignments/Spark_Asg_05.md
# Spark Assignment #05
## Problem Statement
Implement spark program using scala to find average salary of employees in each department using dataframe.
## Steps to run this program:
#### Pre-requisite:
Download spark version: https://www.apache.org/dyn/closer.lua/spark/spark-2.4.5/spark-2.4.5-bin-hadoop2.7.tgz
Install Java version: https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
Install Scala version: https://www.scala-lang.org/download/
Install SBT version: https://www.scala-sbt.org/download.html
#### Steps to run:
##### Step #01: Download and extract spark files.
##### Step #02: Go to extracted folder and open command prompt in bin folder.
##### Step #03: Set environment variable for java and scala using following commands:
set SPARK_HOME=C:spark-2.4.5-bin-hadoop2.7
set JAVA_HOME=C:Program FilesJavajdk1.8.0_261
set SCALA_HOME=C:Program Files (x86)scala
set PATH=%PATH%;%JAVA_HOME%bin;%SCALA_HOME%bin;%SPARK_HOME%bin;
##### Step #04: Create SBT project in IntelliJ IDEA.
##### Step #05: Create a new folder named data under resources folder.
##### Step #06: Download csv files from following URLs:
Employee.csv : https://github.com/baghay123/BigData/blob/master/Spark/data/Employees.csv?raw=true  
Department.csv : https://github.com/baghay123/BigData/blob/master/Spark/data/Departments.csv?raw=true  
Salary.csv : https://github.com/baghay123/BigData/blob/master/Spark/data/Salary.csv?raw=true  
##### Step #07: Place csv files in newly created data folder under resources folder.
##### Step #08: Open SparkScalaApp.scala file in src/main/scala folder and copy code from below.
##### Step #09: Run SparkScalaApp.scala file.
##### Output will be shown in console.
## Scala Code:
scala
import org.apache.spark.sql.{SaveMode , SparkSession}
import org.apache.spark.sql.functions._
object SparkScalaApp {
   def main(args:Array[String]) {
      val spark = SparkSession.builder().appName("SparkScalaApp").master("local[*]").getOrCreate()
      
      //Step#01: Read Employee.csv file into dataframe.
      val employeeDf = spark.read.option("header", "true").csv("data/Employees.csv")
      
      //Step#02: Read Department.csv file into dataframe.
      val departmentDf = spark.read.option("header", "true").csv("data/Departments.csv")
      
      //Step#03: Read Salary.csv file into dataframe.
      val salaryDf = spark.read.option("header", "true").csv("data/Salary.csv")
      
      //Step#04 : Rename columns of salaryDf as "EmployeeID" & "Salary" using withColumnRenamed() function.
      val salaryDfRenamed = salaryDf.withColumnRenamed("Emp_ID","EmployeeID").withColumnRenamed("Salary","Salary")
      
      //Step#05 : Rename columns of employeeDf as "EmployeeID" & "DepartmentID" using withColumnRenamed() function.
      val employeeDfRenamed = employeeDf.withColumnRenamed("Emp_ID","EmployeeID").withColumnRenamed("Department_ID","DepartmentID")
      
      //Step#06 : Perform inner join between salaryDfRenamed & employeeDfRenamed on EmployeeID column using join() function.
      val joinDf = salaryDfRenamed.join(employeeDfRenamed,"EmployeeID")
      
      //Step#07 : Perform inner join between joinDf & departmentDf on DepartmentID column using join() function.
      val joinDfFinal = joinDf.join(departmentDf,"DepartmentID")
      
      //Step#08 : Calculate average salary for each department using groupBy() & avg() functions.
      val averageSalaryByDepartment = joinDfFinal.groupBy(joinDfFinal.col("Department_Name")).agg(avg(joinDfFinal.col("Salary")).alias("Average_Salary"))
      
      //Step#09 : Print output