Подскажите, как указывать драйвер jdbc когда данные нужно с hive получать и на него же потом результат работы отправлять
@michaelkorolev90552 жыл бұрын
как правило, spark настроен на работу с hive metastore, поэтому для работы с hive на чтение обычно используют метод sql() спарк сессии, а для записи - метод saveAsTable() датафрейм writer-а. Spark работает с данными hive также, как и с hdfs (параллелизм), метаданные берет из metastore, теоретически можно "запустить" spark в hive через jdbc, но... зачем?