Hadoop koristi distribuirani datotečni sustav poznat kao HDFS i softver za obradu velikih skupova podataka poznatih kao MapReduce. Izuzetno velike datoteke podijeljene su na dijelove, obično 64 ili 128 MB svaki. Softver se uglavnom piše u Javi, s nekim kodom nižeg stupnja napisanom na C.
Apache poslužitelj, veliki podaci, usluge, softverski uvjeti