Spark ใช้เวอร์ชันใดของ Python
Spark ใช้เวอร์ชันใดของ Python

วีดีโอ: Spark ใช้เวอร์ชันใดของ Python

วีดีโอ: Spark ใช้เวอร์ชันใดของ Python
วีดีโอ: ใช้ Jupyter เขียนสคริปท์ Python Spark บน Hadoop Cluster ใน Azure 2024, พฤศจิกายน
Anonim

Spark ทำงานบน Java 8+ Python 2.7+/3.4+ และ R 3.1+ สำหรับ Scala API Spark 2.3. 0 ใช้ สกาล่า 2.11. คุณจะต้อง ใช้ Scala. ที่เข้ากันได้ รุ่น (2.11.

สอดคล้องกัน spark ทำงานกับ Python 3 หรือไม่

Apache Spark เป็นเฟรมเวิร์กการประมวลผลแบบคลัสเตอร์ ซึ่งปัจจุบันเป็นหนึ่งในเฟรมเวิร์กของ Big Data แบบโอเพนซอร์สที่ได้รับการพัฒนาอย่างแข็งขันที่สุด ตั้งแต่เวอร์ชั่นล่าสุด 1.4 (มิถุนายน 2558) Spark รองรับ R และ Python3 (เพื่อเสริมการรองรับก่อนหน้านี้สำหรับ Java, Scala และ Python 2).

ด้านบน ฉันจะเปลี่ยนเวอร์ชัน Spark ของ Python ได้อย่างไร ในกรณีที่คุณต้องการเพียง เปลี่ยน NS เวอร์ชันหลาม สำหรับงานปัจจุบัน คุณสามารถใช้คำสั่ง pyspark start ต่อไปนี้: PYSPARK_DRIVER_PYTHON=/home/user1/anaconda2/bin/ หลาม PYSPARK_PYTHON=/usr/local/anaconda2/bin/ หลาม pyspark --มาสเตอร์..

นอกจากนี้ Spark เวอร์ชันล่าสุดคืออะไร?

Apache Spark

ผู้เขียนต้นฉบับ มาเตย์ ซาฮาเรีย
เปิดตัวครั้งแรก 26 พฤษภาคม 2014
ปล่อยที่มั่นคง 2.4.5 / 8 กุมภาพันธ์ 2020
ที่เก็บ Spark Repository
เขียนใน สกาลา

spark Python คืออะไร?

ฝึก Big Data ด้วย Apache Spark และ Python Py4J เป็นห้องสมุดยอดนิยมที่รวมอยู่ภายใน PySpark ที่ช่วยให้ หลาม อินเทอร์เฟซแบบไดนามิกกับวัตถุ JVM (RDD's) Apache Spark มาพร้อมกับเปลือกโต้ตอบสำหรับ หลาม เช่นเดียวกับสกาล่า เปลือกสำหรับ หลาม เรียกว่า “ PySpark ”.

แนะนำ: