Вернуться

Где граница между «большими» и обычными данными?

Термин Big Data сегодня прочно вошел в наш обиход, но до сих пор иногда возникает вопрос о том, что именно следует под ним понимать и где провести границу. Например, такую границу иногда проводят по объему данных, которыми мы оперируем, но возможности вычислительной техники постоянно растут, и такие определения быстро теряют актуальность. Скажем, иногда за основу предлагают брать объем данных в 1 ТБ, но только компания Facebook еще в 2014 году хранила и обрабатывала в 300 тыс. раз больше информации.

Каждую секунду средний интернет-пользователь создает 1,7 Мб информации, и эта цифра постоянно растет. Например, когда мы пользуемся смартфоном, общаемся с друзьями в соцсетях, оплачиваем счета или совершаем интернет-покупки, в основе всех наших действий лежат цифровые транзакции — информация о каждой из них сохраняется в сети.

Такой поток информации нельзя обработать традиционными способами — он требует особых технологических решений. Многообразие таких решений и обозначают термином Big Data. Таким образом, под большими данными понимают не столько их конкретный объем, сколько набор подходов, инструментов и методов, которые позволяют получать, хранить и обрабатывать постоянно растущее количество структурированной и неструктурированной информации.