No contexto do Apache Spark, `SQLContext` era um ponto de entrada para trabalhar com dados estruturados usando consultas SQL. Isso permitiu:
*
Criar dados de dados: O objetivo principal era criar quadros de dados a partir de várias fontes de dados (como arquivos CSV, arquivos JSON, tabelas de colméia, etc.). DataFrames são coleções estruturadas de dados organizados em colunas nomeadas.
*
Executar consultas SQL: Você pode executar consultas SQL diretamente contra os quadros de dados registrados como tabelas temporárias ou persistentes no mecanismo Spark SQL.
*
Acesso Spark SQL Funcionalidade: Ele forneceu acesso às várias funcionalidades do mecanismo Spark SQL, como transformações de dados, agregações e outras operações do tipo SQL.
No entanto, `sqlContext` está depreciado. Foi substituído por 'SparkSession` em versões posteriores do Spark. `SparkSession` combina as funcionalidades dos` sqlContext`, `hivecontext` e` streamingContext` em um único ponto de entrada, fornecendo uma abordagem mais unificada e simplificada para trabalhar com Spark.
Em essência, se você encontrar `sqlContext` no código de faísca mais antigo, você deve migrar para o uso de 'SparkSession`. Eles servem ao mesmo objetivo fundamental, mas `SparkSession` é a abordagem recomendada e apoiada no desenvolvimento moderno de faíscas. Ambos finalmente interagem com o mecanismo Spark SQL, mas o `SparkSession` oferece uma experiência mais integrada.