Free Essay

1 Olap

In:

Submitted By argo
Words 3879
Pages 16
1. Bведение
В последнее время много написано про OLAP. Можно сказать, что наблюдается некоторый бум вокруг этих технологий. Правда, для нас этот бум несколько запоздал, но связано это, конечно, с общей ситуацией в стране.
Информационные системы масштаба предприятия, как правило, содержат приложения, предназначенные для комплексного многомерного анализа данных, их динамики, тенденций и т.п. Такой анализ в конечном итоге призван содействовать принятию решений. Нередко эти системы так и называются – системы поддержки принятия решений.
Системы поддержки принятия решений обычно обладают средствами предоставления пользователю агрегатных данных для различных выборок из исходного набора в удобном для восприятия и анализа виде. Как правило, такие агрегатные функции образуют многомерный (и, следовательно, нереляционный) набор данных (нередко называемый гиперкубом или метакубом), оси которого содержат параметры, а ячейки – зависящие от них агрегатные данные – причем храниться такие данные могут и в реляционных таблицах, но в данном случае мы говорим о логической организации данных, а не о физической реализации их хранения). Вдоль каждой оси данные могут быть организованы в виде иерархии, представляющей различные уровни их детализации. Благодаря такой модели данных пользователи могут формулировать сложные запросы, генерировать отчеты, получать подмножества данных.
Технология комплексного многомерного анализа данных получила название OLAP (On-Line Analytical Processing).
OLAP – это ключевой компонент организации хранилищ данных.
Концепция OLAP была описана в 1993 году Эдгаром Коддом, известным исследователем баз данных и автором реляционной модели данных (см. E.F. Codd, S.B. Codd, and C.T.Salley, Providing OLAP (on-line analytical processing) to user-analysts: An IT mandate. Technical report, 1993).
В 1995 году на основе требований, изложенных Коддом, был сформулирован так называемый тест FASMI (Fast Analysis of Shared Multidimensional Information – быстрый анализ разделяемой многомерной информации), включающий следующие требования к приложениям для многомерного анализа:
 предоставление пользователю результатов анализа за приемлемое время (обычно не более 5 с), пусть даже ценой менее детального анализа;
 возможность осуществления любого логического и статистического анализа, характерного для данного приложения, и его сохранения в доступном для конечного пользователя виде;
 многопользовательский доступ к данным с поддержкой соответствующих механизмов блокировок и средств авторизованного доступа;
 многомерное концептуальное представление данных, включая полную поддержку для иерархий и множественных иерархий (это – ключевое требование OLAP);
 возможность обращаться к любой нужной информации независимо от ее объема и места хранения.
Следует отметить, что OLAP-функциональность может быть реализована различными способами, начиная с простейших средств анализа данных в офисных приложениях и заканчивая распределенными аналитическими системами, основанными на серверных продуктах. Пользователи могут легко рассматривать данные на многомерной структуре в применении к собственным задачам.

2. Что такое OLAP
OLAP – аббревиатура от английского On-Line Analytical Processing – это название не конкретного продукта, а целой технологии. По-русски удобнее всего называть OLAP оперативной аналитической обработкой. Хотя в некоторых изданиях аналитическую обработку называют и онлайновой, и интерактивной, однако прилагательное “оперативная” как нельзя более точно отражает смысл технологии OLAP.
Разработка руководителем решений по управлению попадает в разряд областей наиболее сложно поддающихся автоматизации. Однако сегодня имеется возможность оказать помощь управленцу в разработке решений и, самое главное, значительно ускорить сам процесс разработки решений, их отбора и принятия. Для этого можно использовать OLAP.
Рассмотрим, как обычно происходит процесс разработки решений.
Исторически сложилось так, что решения по автоматизации оперативной деятельности наиболее развиты. Речь идет о системах транзакционной обработки данных (OLTP), проще называемых оперативными системами. Эти системы обеспечивают регистрацию некоторых фактов, их непродолжительное хранение и сохранение в архивах. Основу таких систем обеспечивают системы управления реляционными базами данных (РСУБД). Традиционным подходом являются попытки использовать уже построенные оперативные системы для поддержки принятия решений. Обычно пытаются строить развитую систему запросов к оперативной системе и использовать полученные после интерпретации отчеты непосредственно для поддержки решений. Отчеты могут строиться на заказной базе, т.е. руководитель запрашивает отчет, и на регулярной, когда отчеты строятся по достижении некоторых событий или времени. Например, традиционный процесс поддержки принятия решений может выглядеть таким образом: руководитель идет к специалисту информационного отдела и делится с ним своим вопросом. Затем специалист информационного отдела строит запрос к оперативной системе, получает электронный отчет, интерпретирует его и затем доводит его до сведения руководящего персонала. Конечно, такая схема обеспечивает в какой-то мере поддержку принятия решений, но она имеет крайне низкую эффективность и огромное число недостатков. Ничтожное количество данных используется для поддержки критически важных решений. Есть и другие проблемы. Подобный процесс очень медленен, так как длителен сам процесс написания запросов и интерпретации электронного отчета. Он занимает многие дни, в то время, когда руководителю может быть необходимо принять решение прямо сейчас, немедленно. Если учесть, что руководителя после получения отчета может заинтересовать другой вопрос (скажем, уточняющий или требующий рассмотрения данных в другом разрезе), то этот медленный цикл должен повториться, а поскольку процесс анализа данных оперативных систем будет происходить итерационно, то времени тратится ещё больше. Другая проблема – проблема различных областей деятельности специалиста по информационным технологиям и руководителя, которые могут мыслить в разных категориях и, как следствие, – не понимать друг друга. Тогда потребуются дополнительные уточняющие итерации, а это снова время, которого всегда не хватает. Ещё одной важной проблемой является сложность отчетов для понимания. У руководителя нет времени выбирать интересующие цифры из отчёта, тем более что их может оказаться слишком много (вспомним огромные многостраничные отчеты, в которых реально используются несколько страниц, а остальные – на всякий случай). Отметим также, что работа по интерпретации ложится чаще всего на специалистов информационных отделов. То есть грамотный специалист отвлекается на рутинную и малоэффективную работу по рисованию диаграмм и т.п., что, естественно, не может благоприятно сказываться на его квалификации. Кроме того, не является секретом присутствие в цепочке интерпретации благожелателей, заинтересованных в преднамеренном искажении поступающей информации.
Вышеуказанные недостатки заставляют задуматься и об общей эффективности оперативной системы, и о затратах, связанных с ее существованием, так как оказывается, что затраты на создание оперативной системы не окупаются в должной степени эффективностью ее работы.
В действительности проблемы эти не являются следствием низкого качества оперативной системы или ее неудачной постройки. Корни проблем кроются в фундаментальном отличии той оперативной деятельности, которая автоматизируется оперативной системой, и деятельностью по разработке и принятию решений. Отличие это состоит в том, что данные оперативных систем являются просто записями о некоторых имевших место событиях, фактах, но никак не информацией в общем смысле этого слова. Информация – то, что снижает неопределенность в какой-либо области. И очень неплохо, если бы информация снижала неопределенность в области подготовки решений. По поводу непригодности для этой цели оперативных систем, построенных на РСУБД, в свое время высказался небезызвестный E.F. Codd, человек, стоявший в 70-е годы у истоков технологий систем управления реляционными БД: “Хотя системы управления реляционными БД доступны для пользователей, они никогда не считались средством, дающим мощные функции по синтезу, анализу и консолидации (функций, называемых многомерным анализом данных)”. Речь идет именно о синтезе информации, о том, чтобы превращать данные оперативных систем в информацию и даже в качественные оценки. OLAP позволяет выполнять такое превращение.
В основе OLAP лежит идея многомерной модели данных. Человеческое мышление многомерно по определению. Когда человек задает вопросы, он налагает ограничения, тем самым формулируя вопросы во многих измерениях, поэтому процесс анализа в многомерной модели весьма приближен к реальности человеческого мышления. По измерениям в многомерной модели откладывают факторы, влияющие на деятельность предприятия (например: время, продукты, отделения компании, географию и т.п.). Таким образом получают гиперкуб (конечно, название не очень удачно, поскольку под кубом обычно понимают фигуру с равными ребрами, что, в данном случае, далеко не так), который затем наполняется показателями деятельности предприятия (цены, продажи, план, прибыли, убытки и т.п.). Наполнение это может вестись как реальными данными оперативных систем, так и прогнозируемыми на основе исторических данных. Измерения гиперкуба могут носить сложный характер, быть иерархическими, между ними могут быть установлены отношения. В процессе анализа пользователь может менять точку зрения на данные (так называемая операция смены логического взгляда), тем самым просматривая данные в различных разрезах и разрешая конкретные задачи. Над кубами могут выполняться различные операции, включая прогнозирование и условное планирование (анализ типа “что, если”). Причем операции выполняются разом над кубами, т.е. произведение, например, даст в результате произведение-гиперкуб, каждая ячейка которого является произведением ячеек соответствующих гиперкубов-множителей. Естественно, возможно выполнение операций над гиперкубами, имеющими различное число измерений.

3. История создания OLAP-технологии
Идея обработки данных на многомерных массивах не является новой. Фактически она восходит к 1962 году, когда Ken Iverson опубликовал свою книгу “Язык программирования” (“A Programming Language”, APL). Первая практическая реализация APL состоялась в поздних шестидесятых компанией IBM. APL – это очень изящный, математически определённый язык с многомерными переменными и обрабатываемыми операциями. Он подразумевался как оригинальное мощное средство по работе с многомерными преобразованиями по сравнению с другими практическими языками программирования.
Однако идея долгое время не получала массового применения, поскольку не пришло еще время графических интерфейсов, печатающих устройств высокого качества, а отображение греческих символов требовало специальных экранов, клавиатур и печатающих устройств. Позднее английские слова иногда использовали для замены греческих операторов, однако борцы за чистоту APL пресекли попытки популяризации их любимого языка. APL также поглощал машинные ресурсы. В те дни его использование требовало больших затрат. Программы очень медленно выполнялись и, кроме того, сам их запуск обходился очень дорого. Требовалось много памяти, по тем временам просто шокирующие объемы (около 6 МБ).
Однако досада от этих первоначальных ошибок не убила идею. Она использовалась во многих деловых приложениях 70-х, 80-х годов. Многие из этих приложений имели черты современных систем аналитической обработки. Так, IBM разработала операционную систему для APL, названную VSPC, и некоторые люди считали ее идеальной средой для персонального использования, пока электронные таблицы не стали повсеместно распространены.
Но APL был слишком сложен в использовании, тем более что каждый раз появлялись несоответствия между самим языком и оборудованием, на котором делались попытки его реализации.
В 80-х годах APL стал доступен на персональных машинах, но не нашел рыночного применения. Альтернативой было программирование многомерных приложений с использованием массивов в других языках. Это было очень тяжелой задачей даже для профессиональных программистов, что вынуждало ждать следующего поколения многомерных программных продуктов.
В 1972 году несколько прикладных многомерных программных продуктов, ранее использовавшихся в учебных целях, нашли коммерческое применение: Express. Он в полностью переписанном виде остаётся и сейчас, однако оригинальные концепции 70-х годов перестали быть актуальными. Сегодня, в 90-х, Express является одной из наиболее популярных OLAP-технологий, и Oracle (r) будет продвигать его и дополнять новыми возможностями.
Больше многомерных продуктов появилось в 80-х годах. В начале десятилетия – продукт с названием Stratagem, позднее называемый Acumate (сегодня владельцем является Kenan Technologies), который еще продвигался до начала 90-х, но сегодня, в отличие от Express, практически не используется.
Comshare System W был многомерным продуктом другого стиля. Представленный в 1981 году, он был первым, где предполагалась большая ориентированность на конечного пользователя и на разработку финансовых приложений. Он привнёс много концепций, которые, правда, не были хорошо адаптированы, такие, как полностью непроцедурные правила, полноэкранный просмотр и редактирование многомерных данных, автоматическое перевычисление и пакетная интеграция с реляционными данными. Однако Comshare System W был достаточно тяжел для аппаратного обеспечения того времени по сравнению с другими продуктами и меньше использовался в будущем, продавался всё меньше, и в продукте не делалось никаких улучшений. Хотя он и сегодня доступен на UNIX, он не является клиент-серверным, что не способствует повышению его предложения на рынке аналитических продуктов. В поздних 80-х Comshare выпустил продукт для DOS, а позднее для Windows. Эти продукты назывались Commander Prism и использовали те же концепции, что и System W.
Другой творческий продукт поздних 80-х назывался Metaphor. Он предназначался для профессиональных маркетологов. Он также предложил много новых концепций, которые только сегодня начинают широко использоваться: клиент-серверные вычисления, использование многомерной модели на реляционных данных, объектно-ориентированная разработка приложений. Однако стандартное аппаратное обеспечение персональных машин тех дней не было способно работать с Metaphor и поставщики вынуждены были разрабатывать собственные стандарты на персональные машины и сети. Постепенно Metaphor стал работать удачно и на серийных персональных машинах, однако продукт был выполнен исключительно для OS/2 и имел свой собственный графический интерфейс пользователя.
Затем Metaphor заключил маркетинговый альянс с IBM, которой впоследствии и был поглощён. В середине 1994 года IBM решила интегрировать технологию Metaphor (переименованную в DIS) со своими будущими технологиями и тем самым прекратить финансирование отдельного направления, однако заказчики выразили своё неудовольствие и потребовали продолжить поддержку продукта. Поддержка была продолжена для оставшихся заказчиков, а IBM перевыпустила продукт под новым названием DIS, что, однако, не сделало его популярным. Но творческие, новаторские концепции Metaphor не были забыты и видны сегодня во многих продуктах.
В середине 80-х родился термин EIS (Executive Information System – информационная система руководителя). Первым продуктом, ясно продемонстрировавшим это направление, был Pilot’s Command Center. Это был продукт, который позволял выполнять совместные вычисления, то, что мы называем сегодня клиент-серверными вычислениями. Поскольку мощность персональных компьютеров 80-х годов была ограничена, продукт был очень “сервероцентричен”, однако этот принцип и сегодня очень популярен. Pilot недолго продавал Command Center, но предложил много концепций, которые можно узнать в сегодняшних OLAP-продуктах, включая автоматическую поддержку временных промежутков, многомерные клиент-серверные вычисления и упрощённое управление процессом анализа (мышь, чувствительные экраны и т.п.). Некоторые из этих концепций были повторно применены позднее в Pilot Analysis Server.
В конце 80-х электронные таблицы были доминирующими на рынке инструментов, предоставляющих анализ конечным пользователям. Первая многомерная электронная таблица была представлена продуктом Compete. Он продвигался на рынок как очень дорогой продукт для специалистов, но поставщики не обеспечили возможность захвата рынка этим продуктом, и компания Computer Associates приобрела права на него вместе с другими продуктами, включая Supercalc и 20/20. Основным эффектом от приобретения CA Compete было резкое снижение цены на него и снятие защиты от копирования, что, естественно, способствовало его распространению. Однако он не был удачным. Compete положен в основу Supercalc 5, но многомерный аспект его не продвигается. Старый Compete всё ещё иногда используют в связи с тем, что в свое время в него были вложены немалые средства.
Компания Lotus была следующей, кто попытался войти на рынок многомерных электронных таблиц с продуктом Improv, который запускается на NeXT машине. Это гарантировало, как минимум, что продажи 1-2-3 не снизятся, но когда тот со временем был выпущен под Windows, Excel уже имел большую долю рынка, что не позволило Lotus внести какие-либо изменения в распределение рынка. Lotus, подобно CA с Compete, переместила Improv в нижнюю часть рынка, однако и это не стало условием удачного продвижения на рынке, и новые разработки в этой области не получили продолжения. Оказалось, что пользователи персональных компьютеров предпочли электронные таблицы 1-2-3 и не интересуются новыми многомерными возможностями, если они не полностью совместимы с их старыми таблицами. Так же концепции маленьких, настольных электронных таблиц, предлагаемых как персональные приложения, в действительности не оказались удобными и не прижились в настоящем деловом мире. Microsoft (r) пошла по этому пути, добавив PivotTables (в русской редакции это называется “сводные таблицы”) к Excel. Хотя немногие пользователи Excel получили выгоду от использования этой возможности, это, вероятно, единственный факт широкого использования в мире возможностей многомерного анализа просто потому, что в мире очень много пользователей Excel.

4. OLAP, ROLAP, MOLAP…
Общеизвестно, что когда Кодд опубликовал в 1985 году свои правила построения реляционных СУБД, они вызвали бурную реакцию и впоследствии сильно отразились вообще на индустрии СУБД. Однако мало кто знает, что в 1993 году Кодд опубликовал труд под названием “OLAP для пользователей-аналитиков: каким он должен быть”. В нем он изложил основные концепции оперативной аналитической обработки и определил 12 правил, которым должны удовлетворять продукты, предоставляющие возможность выполнения оперативной аналитической обработки.
Вот эти правила (текст оригинала сохранен по возможности):
1. Концептуальное многомерное представление. Пользователь-аналитик видит мир предприятия многомерным по своей природе. Соответственно и OLAP-модель должна быть многомерной в своей основе. Многомерная концептуальная схема или пользовательское представление облегчают моделирование и анализ так же, впрочем, как и вычисления.
2. Прозрачность. Вне зависимости от того, является OLAP-продукт частью средств пользователя или нет, этот факт должен быть прозрачен для пользователя. Если OLAP предоставляется клиент-серверными вычислениями, то этот факт также, по возможности, должен быть незаметен для пользователя. OLAP должен предоставляться в контексте истинно открытой архитектуры, позволяя пользователю, где бы он ни находился, связываться при помощи аналитического инструмента с сервером. В дополнение прозрачность должна достигаться и при взаимодействии аналитического инструмента с гомогенной и гетерогенной средами БД.
3. Доступность. Пользователь-аналитик OLAP должен иметь возможность выполнять анализ, базирующийся на общей концептуальной схеме, содержащей данные всего предприятия в реляционной БД, также как и данные из старых наследуемых БД, на общих методах доступа и на общей аналитической модели. Это значит, что OLAP должен предоставлять свою собственную логическую схему для доступа в гетерогенной среде БД и выполнять соответствующие преобразования для предоставления данных пользователю. Более того, необходимо заранее позаботиться о том, где и как, и какие типы физической организации данных действительно будут использоваться. OLAP-система должна выполнять доступ только к действительно требующимся данным, а не применять общий принцип “кухонной воронки”, который влечет ненужный ввод.
4. Постоянная производительность при разработке отчетов. Если число измерений или объем базы данных увеличиваются, пользователь-аналитик не должен чувствовать какой-либо существенной деградации в производительности. Постоянная производительность является критичной при поддержке для конечного пользователя легкости в использовании и ограничения сложности OLAP. Если пользователь-аналитик будет испытывать существенные различия в производительности в соответствии с числом измерений, тогда он будет стремиться компенсировать эти различия стратегией разработки, что вызовет представление данных другими путями, но не теми, которыми действительно нужно представить данные. Затраты времени на обход системы для компенсации ее неадекватности – это не то, для чего аналитические продукты предназначены.
5. Клиент-серверная архитектура. Большинство данных, которые сегодня требуется подвергать оперативной аналитической обработке, содержатся на мэйнфреймах с доступом через ПК. Это означает, следовательно, что OLAP-продукты должны быть способны работать в среде клиент-сервер. С этой точки зрения является необходимым, чтобы серверный компонент аналитического инструмента был существенно “интеллектуальным”, чтобы различные клиенты могли присоединяться к серверу с минимальными затруднениями и интеграционным программированием. “Интеллектуальный” сервер должен быть способен выполнять отображение и консолидацию между несоответствующими логическими и физическими схемами баз данных. Это обеспечит прозрачность и построение общей концептуальной, логической и физической схемы.
6. Общая многомерность. Каждое измерение должно применяться безотносительно своей структуры и операционных способностей. Дополнительные операционные способности могут предоставляться выбранным измерениям, и, поскольку измерения симметричны, отдельно взятая функция может быть предоставлена любому измерению. Базовые структуры данных, формулы и форматы отчетов не должны смещаться в сторону какого-либо измерения.
7. Динамическое управление разреженными матрицами. Физическая схема OLAP-инструмента должна полностью адаптироваться к специфической аналитической модели для оптимального управления разреженными матрицами. Для любой взятой разреженной матрицы существует одна и только одна оптимальная физическая схема. Эта схема предоставляет максимальную эффективность по памяти и операбельность матрицы, если, конечно, весь набор данных не помещается в памяти. Базовые физические данные OLAP-инструмента должны конфигурироваться к любому подмножеству измерений, в любом порядке, для практических операций с большими аналитическими моделями. Физические методы доступа также должны динамически меняться и содержать различные типы механизмов, таких как: непосредственные вычисления, B-деревья и производные, хеширование, возможность комбинировать эти механизмы при необходимости. Разреженность (измеряется в процентном отношении пустых ячеек ко всем возможным) – это одна из характеристик распространения данных. Невозможность регулировать разреженность может сделать эффективность операций недостижимой. Если OLAP-инструмент не может контролировать и регулировать распространение значений анализируемых данных, модель, претендующая на практичность, базирующаяся на многих путях консолидации и измерениях, в действительности может оказаться ненужной и безнадежной.
8. Многопользовательская поддержка. Часто несколько пользователей-аналитиков испытывают потребность работать совместно с одной аналитической моделью или создавать различные модели из единых данных. Следовательно, OLAP-инструмент должен предоставлять возможности совместного доступа (запроса и дополнения), целостности и безопасности.
9. Неограниченные перекрестные операции. Различные уровни свертки и пути консолидации, вследствие их иерархической природы, представляют зависимые отношения в OLAP-модели или приложении. Следовательно, сам инструмент должен подразумевать соответствующие вычисления и не требовать от пользователя-аналитика вновь определять эти вычисления и операции. Вычисления, не следующие из этих наследуемых отношений, требуют определения различными формулами в соответствии с некоторым применяющимся языком. Такой язык может позволять вычисления и манипуляцию с данными любых размерностей и не ограничивать отношения между ячейками данных, не обращать внимания на количество общих атрибутов данных конкретных ячеек.
10. Интуитивная манипуляция данными. Переориентация путей консолидации, детализация, укрупнение и другие манипуляции, регламентируемые путями консолидации, должны применяться через отдельное воздействие на ячейки аналитической модели, а также не должны требовать использования системы меню или иных множественных действий с пользовательским интерфейсом. Взгляд пользователя-аналитика на измерения, определенный в аналитической модели, должен содержать всю необходимую информацию, чтобы выполнять вышеуказанные действия.
11. Гибкие возможности получения отчетов. Анализ и представление данных являются простыми, когда строки, столбцы и ячейки данных, которые будут визуально сравниваться между собой, будут находиться вблизи друг друга или по некоторой логической функции, имеющей место на предприятии. Средства формирования отчетов должны представлять синтезируемые данные или информацию, следующую из модели данных в ее любой возможной ориентации. Это означает, что строки, столбцы или страницы должны показывать одновременно от 0 до N измерений, где N – число измерений всей аналитической модели. В дополнение каждое измерение содержимого, показанное в одной записи, колонке или странице, должно также быть способно показать любое подмножество элементов (значений), содержащихся в измерении, в любом порядке.
12. Неограниченная размерность и число уровней агрегации. Исследование о возможном числе необходимых измерений, требующихся в аналитической модели, показало, что одновременно может использоваться до 19 измерений. Отсюда вытекает настоятельная рекомендация, чтобы аналитический инструмент был способен предоставить хотя бы 15 измерений одновременно и предпочтительно 20. Более того, каждое из общих измерений не должно быть ограничено по числу определяемых пользователем-аналитиком уровней агрегации и путей консолидации.
Фактически сегодня разработчики OLAP-продуктов следуют этим правилам или, по крайней мере, стремятся им следовать. Эти правила можно считать теоретическим базисом оперативной аналитической обработки, с ними трудно спорить. Впоследствии было выведено множество следствий из 12 правил, которые мы, однако, не будем приводить, дабы излишне не усложнять повествование.
Остановимся несколько подробнее на том, как отличаются OLAP-продукты по своей физической реализации.
Как уже отмечалось выше, в основе OLAP лежит идея обработки данных на многомерных структурах. Когда мы говорим OLAP, мы подразумеваем, что логически структура данных аналитического продукта многомерна. Другое дело, как именно это реализовано. Различают два основных вида аналитической обработки, к которым относят те или иные продукты.
MOLAP. Собственно многомерная (multidimensional) OLAP. В основе продукта лежит нереляционная структура данных, обеспечивающая многомерное хранение, обработку и представление данных. Соответственно и базы данных называют многомерными. Продукты, относящиеся к этому классу, обычно имеют сервер многомерных баз данных. Данные в процессе анализа выбираются исключительно из многомерной структуры. Подобная структура является высокопроизводительной.
ROLAP. Реляционная (relational) OLAP. Как и подразумевается названием, многомерная структура в таких инструментах реализуется реляционными таблицами. А данные в процессе анализа, соответственно, выбираются из реляционной базы данных аналитическим инструментом.
Недостатки и преимущества каждого подхода, в общем-то, очевидны. Многомерная OLAP обеспечивает лучшую производительность, но структуры нельзя использовать для обработки больших объемов данных, поскольку большая размерность потребует больших аппаратных ресурсов, а вместе с тем разреженность гиперкубов может быть очень высокой и, следовательно, использование аппаратных мощностей не будет оправданным. Наоборот, реляционная OLAP обеспечивает обработку на больших массивах хранимых данных, так как возможно обеспечение более экономичного хранения, но, вместе с тем, значительно проигрывает в скорости работы многомерной. Подобные рассуждения привели к выделению нового класса аналитических инструментов – HOLAP. Это гибридная (hybrid) оперативная аналитическая обработка. Инструменты этого класса позволяют сочетать оба подхода – реляционного и многомерного. Доступ может вестись как к данным многомерных баз, так и к данным реляционных.
Есть еще один достаточно экзотический вид оперативной аналитической обработки – DOLAP. Это “настольный” (desktop) OLAP. Речь идет о такой аналитической обработке, где гиперкубы малы, размерность их небольшая, потребности скромны, и для такой аналитической обработки достаточно персональной машины на рабочем столе.
Оперативная аналитическая обработка позволяет значительно упростить и ускорить процесс подготовки и принятия решений руководящим персоналом. Оперативная аналитическая обработка служит цели превращения данных в информацию. Она принципиально отличается от традиционного процесса поддержки принятия решений, основанного, чаще всего, на рассмотрении структурированных отчетов. По аналогии, разница между структурированными отчетами и OLAP такая, как между ездой по городу на трамвае и на личном автомобиле. Когда вы едете на трамвае, он двигается по рельсам, что не позволяет хорошо рассмотреть отдаленные здания и тем более приблизиться к ним. Наоборот, езда на личном автомобиле дает полную свободу передвижения (естественно, следует соблюдать ПДД). Можно подъехать к любому зданию и добраться до тех мест, где трамваи не ходят.
Структурированные отчеты – это те рельсы, которые сдерживают свободу в подготовке решений. OLAP – автомобиль для эффективного движения по информационным магистралям.

//

http://www.sergeeva-i.narod.ru/inform/page7.htm

Similar Documents

Free Essay

Varios

...Tarea #6 Estructura informática de la Empresa (AC 9202-T005) Profesor Dr. Dexter Mena Jose Mauricio Ureña Jimenez 1 er Trimestre 2013 2 INDICE Página Que significa Gestión del Conocimiento 3 Qué herramientas informáticas asocian este concepto 5 Qué significa (BI Business Intelligence) 7 Bibliografía 11 3 ¿Que significa Gestión del Conocimiento? Gestión del conocimiento es el proceso por el cual una organización, facilita la trasmisión de informaciones y habilidades a sus empleados, de una manera sistemática y eficiente. Es importante aclarar que las informaciones y habilidades no tienen por qué estar exclusivamente dentro de la empresa, sino que pueden estar o generarse generalmente fuera de ella. Este matiz final es muy importante. Generalmente la mayoría de las empresas identifican gestión del conocimiento solamente con la información y habilidades internas de la empresa, lo que se conoce como Business Intelligence o inteligencia empresarial. De esta forma casi todos los esfuerzos se orientan a canalizar la información y habilidades que ya posee una organización centrándose en la eficiencia de los procesos de comunicación interna a través de la implantación de sistemas como CRM, ERP y un CMI Esto ha sido tradicionalmente así por que siempre ha sido mucho más fácil controlar los volúmenes de información interna que la información externa que se encuentra fuera de la organización que es más difícil de encontrar, buscar, seleccionar y organizar...

Words: 2405 - Pages: 10

Premium Essay

Online Analytical Processing

...database structures, specialized servers, and Web-enable software products (O'Brien & Marakas, 2011). The ability to analyze and synthesize the available data can be a source of a competitive advantage for any firm. Online Analytical Processing (OLAP) is one of tools that can assist managers in making sound business decisions. OLAP is a powerful technology behind many Business Intelligence (BI) applications. It offers many capabilities for data discovery, report viewing, complex analytical calculations, and planning (Olap.com, n.d.). In other words, OLAP is a “computer-enhanced multidimensional analysis” (Achor, 2002). The term OLAP was created by E.F. Codd in 1993. According to Codd and associates, OLAP is made up of many speculative “what-if” and/or “why” data model scenarios conducted within the context of the specific historical basis (Codd, Codd and Salley, 1993). Under these scenarios, the values of major parameters are changed to show potential variances in “supply, production, the economy, sales, marketplace, costs, and/or other environmental and internal factors” (Codd, Codd and Salley, 1993, p.6). These variable groups or dimensions make up a base for the company’s planning, analysis and reporting activities (Bogue, 2005). OLAP tools do not keep individual transaction records in a row-by-column format, like relational databases. Instead, they store consolidated information in multidimensional cubes (Olap.com, n.d.). When necessary, analysts use operations called consolidation...

Words: 781 - Pages: 4

Free Essay

Parallel Querying of Rolap Cubes in the Presence of Hierarchies

...ABSTRACT Online Analytical Processing is a powerful framework for the analysis of organizational data. OLAP is often supported by a logical structure known as a data cube, a multidimen- sional data model that offers an intuitive array-based per- spective of the underlying data. Supporting efficient index- ing facilities for multi-dimensional cube queries is an issue of some complexity. In practice, the difficulty of the in- dexing problem is exacerbated by the existence of attribute hierarchies that sub-divide attributes into aggregation layers of varying granularity. In this paper, we present a hierar- chy and caching framework that supports the efficient and transparent manipulation of attribute hierarchies within a parallel ROLAP environment. Experimental results verify that, when compared to the non-hierarchical case, very little overhead is required to handle streams of arbitrary hierar- chical queries. Categories and Subject Descriptors H.2.7.b [Database Management]: Data Warehouse and Repository; H.2.2.a [DatabaseManagement]: AccessMeth- ods General Terms Algorithms Design Performance Keywords Hierarchies, Caching, Data Cubes, Aggregation, Indexing, OLAP, Granularity, Materialization, Parallelization 1. INTRODUCTION Online Analytical Processing (OLAP) has become an im- portant component of contemporary Decision Support Sys- tems (DSS). Central to OLAP is the data cube, a multidi- mensional data model that presents an intuitive cube-like Permission...

Words: 760 - Pages: 4

Premium Essay

Application of Olap to the Analysis of the Curriculum Chosen by Students

...Application of OLAP to the Analysis of the Curriculum Chosen by Students Hua-long Zhao Department of Geography Dezhou University Dezhou Shandong 253023, China Zhl1970@dzu.edu.cn Abstract—With development of the scale of higher education, more and more data about curriculum chosen by students has been produced. This paper analyzes the application of data warehouse, on-line analytical processing and data mining on the analysis of curriculum chosen by students, accomplishes the design of data warehouse about universities curriculum chosen by students, extracts and transforms curriculum chosen by students data and then loads them into the data warehouse. This paper builds curriculum chosen by students multidimensional cube analysis data model by taking use of OLAP technology, and realizes the query, analysis and show of curriculum chosen by students multidimensional data, so it can analyze the curriculum's establishment situation from many angles, and serve the university teaching decision support system. (Abstract) Keywords-Data Warehouse, OLAP, Dimensional Table, Fact Table, Star Model. Ⅰ. INTRODUCTION Data warehouse is a new database technology that has rapidly developed since 1990s. It can serve the policy-maker well, and it is one of data congregations that have the features of facing theme, integration, variation with time and supporting decision. In the past more than 20 years, with the development and widespread application of database, enterprise has accumulated massive...

Words: 2276 - Pages: 10

Premium Essay

Dw Note for Finance

...Introduction to Data Warehousing and Business Intelligence Slides kindly borrowed from the course “Data Warehousing and Machine Learning” Aalborg University, Denmark Christian S. Jensen Torben Bach Pedersen Christian Thomsen {csj,tbp,chr}@cs.aau.dk Course Structure • Business intelligence   Extract knowledge from large amounts of data collected in a modern enterprise Data warehousing, machine learning Acquire theoretical background in lectures and literature studies Obtain practical experience on (industrial) tools in practical exercises Data warehousing: construction of a database with only data analysis purpose • Purpose   Business Intelligence (BI) Machine learning: find patterns automatically in databases 2 •1 Literature • Multidimensional Databases and Data Warehousing, Christian S. Jensen, Torben Bach Pedersen, Christian Thomsen, Morgan & Claypool Publishers, 2010 • Data Warehouse Design: Modern Principles and Methodologies, Golfarelli and Rizzi, McGraw-Hill, 2009 • Advanced Data Warehouse Design: From Conventional to Spatial and Temporal Applications, Elzbieta Malinowski, Esteban Zimányi, Springer, 2008 • The Data Warehouse Lifecycle Toolkit, Kimball et al., Wiley 1998 • The Data Warehouse Toolkit, 2nd Ed., Kimball and Ross, Wiley, 2002 3 Overview • • • • Why Business Intelligence? Data analysis problems Data Warehouse (DW) introduction DW topics    Multidimensional modeling ETL Performance optimization 4 •2 What is Business Intelligence (BI)? • From...

Words: 8493 - Pages: 34

Free Essay

Final Exam

...INSS 370 Final Exam Study Guide  Below is a study guide for your final exam.  There will be a combination of true/false and multiple  choice questions.  1. Who is responsible for prioritizing the product backlog?  2. What does a burn‐down chart show?  3. What are the principles outlined in the Agile Software Development Manifesto?  4. If our highest priority is to satisfy the customer through early and continuous delivery of  valuable software, in general, how can we do that?  5. In agile software processes are the highest priorities to satisfy the customer through  early and continuous delivery of valuable software?  6. What traits need to exist among the members of an agile software team?  7. In agile development is it more important to build software that meets the customers'  needs today than worry about features that might be needed in the future?  8. The ____ phase of the SDLC includes four main activities: requirements modeling, data  and process modeling, object modeling, and consideration of development strategies.  9. One of the main activities in the systems analysis phase is ____ modeling, which  involves fact‐finding to describe the current system and identification requirements for  the new system.  10. How is planning performed on projects that use Agile approaches?   11. Who should be the main judge of the business value (think of the various roles within an  agile team)?   12. How should work be allocated and who should allocate the work to the team in an Agile ...

Words: 443 - Pages: 2

Free Essay

Humn

...Identifying Good or Bad Statements Anit Maharjan HUMN210-H5WW Meghan Roehll Franklin University 4th April, 2013 a. Nobody in the world today is really good. Yes, I have heard of good people, but not really good people. - Good statement. b. The world is not flat. Well, if you look at a map it is: - in what point of view - bad statement. c. I will need an extended period of laborious cogitation to assimilate the missive. This doesn't make any sense - bad statement. d. The number 2 is odd. Are we talking about an even number? I believe your confusion comes from the fact that 2 is a prime number, but it is still even. It is the only even number that is prime – false statement. e. If you believe in evolution, then your ancestors were filthy apes. There are two kinds of people in the world: - one is god prayer and the next is science believer. If you support the statement from the point of scientific theory of evolution by Darwin, then yes our ancestors are filthy apes, whereas if you think form the side of god’s prayer then the statement is false – good statement. f. Some swans are black. In this statement, I am not sure that some swans are black or not, all swans could be black or white – good statement. g. If you are a human, then you are a person. If you are an individual, then you are alive. Human is a person and of course the person becomes an individual and every individual breaths...

Words: 384 - Pages: 2

Premium Essay

The Rain Came Analysis

...អាណាចក្រភ្នំ អាណាចក្រភ្នំ គស​ 50-630 ទីតាំង * ៣០០លី លិចលីនីយ(ជនជាតិចាម) * ៧០០០លី Jenan(តុងកឹង) * ឈូងសមុទ្រធំមួយ * ទន្លេរធំមួយ លិចនឹងពាយព្យគឺសមុទ្រ * ១លី=៥៧៦ម=១៧២៨គម=> 1. កម្ពុជា 2. កម្ពុជាក្រោម 3. ថៃ(ភាគកណ្តាល) រាជវង្សមាន៖ 1. លីវយី(៥០-៦៨) 2. ហ៊ុនទៀន(៦៨) 3. ហ៊ុនប៉ានហួង៖ដែលជាមេទ័ពបានប្រើល្បិចវាយក្រុងទាំង៧នឹងបានដណ្តើមអំណាចពីព្រះ បាទហ៊ុនទៀន 4. ហ៊ុនប៉ានប៉ាង៖ជាកូនហ៊ុនប៉ានហួង 5. ហ្វាន់ជេម៉ាន់៖ជាអ្នកសំលាប់សោយរាជ្យបន្តរឺក៍ហ៊ុនប៉ានប៉ាងផ្ទេរអំណាចអោយ 6. គិនចេង(២២៥)៖ត្រូវជាកូនរបស់របស់ហ្វាន់ជេម៉ាន់ពីព្រោះគាត់បានស្លាប់ពេលវាយ នៅ គិនស៊ីន 7. ហ្វានឆាន(២២៥-២៤៥)៖បានសំលាប់គិនចេងដើម្បីសោយរាជ្យបន្តដែលត្រូវជាក្មួយហ្វាន់ជេម៉ាន់នឹងត្រូវជាបងប្អូនគិនចេង 8. ហ្វានឆាង(២៤៥-២៥០)៖ជាកូនពៅរបស់ហ្វានជេម៉ាន់បានមកសងសឹកនឹងសោយរាជ្យបន្ត 9. ហ្វានស៊ីយ៉ុន(២៥០-២៨៩)៖បានសំលាប់ហ្វានឆាងសោយរាជ្យបន្ត 10. ធៀនឈូឆានតាន(៣៥៧) 11. កៅណ្ឌិន្យ(៣៥៧)៖គាត់មានកូនពីរគឺស្រីឥន្រ្ទវរ្ម័ននឹងស្រេស្ធវរ្ម័ន 12. កៅណ្ឌិន្យជ័យវរ្ម័ន(៤៤២-៥១៤)៖មានបុត្រាពីរគឺគុណវរ្ម័នជាប្អូននឹងរុទ្រវរ្ម័នជាបងក៍ប៉ុន្តែគុណវរ្ម័នជាអ្នកសោយរាជ្យដែលត្រូវជាកូនកុលប្រភាវតីជាមហេសីរីឯរុទ្រវរ្ម័នជាកូនស្នំ។ដោយមិនសុខចិត្តព្រោះខ្លួនជាបងមិនបានសោយរាជ្យក៍ប្រើល្បិចសំលាប់ប្អូនដើម្បី សោយរាជ្យម្តង។ 13. គុណវរ្ម័ន 14. ចេនឡា ចេនឡា រុទ្រវរ្ម័ន(៥១៤-៥៥៦) គស ៥៥០-៨០២ 15. ឥសីកម្ពុស្វយម្ហូវ៖ 16. ស្រុតវរ្ម័ន៖ 17. ស្រស្ធវរ្ម័ន៖ 18. វីរវរ្ម័ន៖ 19. ភវរ្ម័ន(៩០០-៩២២)៖ * ទីតាំងរបស់ចេនឡានៅត្រង់តំបន់បាសាក់តាមដងទន្លេរមេគង្គដែលច្ចុប្បន្ននៅភាគ អាគ្នេយ៍ប្រទេសឡាវ...

Words: 350 - Pages: 2

Free Essay

General

...– – – – • – – • – • • • • – – – – • • • – – – – – – Wood Stick Holder Premium Wood Stick Holder Glow in the Dark Stick Holder Brass Burner Premium Brass Burner Aroma Ring Votive Holder NIPPON KODO INCENSE HERB & EARTH STICKS STICKS Classic STICKS CONES AFRICAN AMERICAN Family Unity – – Rhythm Sensuality Spirituality • • • • Bergamot Cedar • • • Fashion & Style • Number 4 - 100-st Number 6 - 100-st Chamomile Frankincense Jasmine Lavender Orange Patchouli Peppermint Rose Sandalwood Vanilla GONESH DIFFUSER SETS 3 fl.oz. Coconut Lime Mango Peach Sweet Apple Vanilla Cream REFILLS - 6 oz Coconut Lime Mango Peach Sweet Apple Vanilla Cream HOLIDAY TRADITIONS Number 8 - 100-st Number 10 Number 12 Number 14 Variety 1 (6,8,12) - 30 st Variety 2 (2,4,10) - 30 st MORNING STAR STICKS GONESH® EXTRA RICH Amber Apple Cider Jasmine Lavender Sandalwood Christmas Dream (Winter) Nutcracker Dance (Winter) Snowy Sensations (Winter) Holiday Memories (Winter) SCENTED REEDS & OILS REEDS OILS Black Cherry Cedarwood Cherry Blossom Cinnamon Coconut Dragon’s Blood...

Words: 477 - Pages: 2

Premium Essay

Robotics Collision Lab

...Mr. Weidenboerner Period 7 Purpose: To explore sensors and use them to knock down a box filled with bean bags without going over the edge of a precipice. Hypothesis: I think that designs with a high point of impact and and sensor placed out in front of the robot will have the best results. Group 2 | Trial | Distance from the Egde | 1 | 28 mm | 2 | 32 mm | 3 | 35 mm | 4 | 22 mm | 5 | fail | Average | 32 mm | Competion | Group | Average | 1 | 23 mm | 2 | 32 mm | 3 | fail | 4 | 7 mm | Program Flow: 1. #Include “Main.h” 2. 3. void main (void) 4. { 5. int limitswitch; 6. 7. // 0 is pressed 8. // 1 is not pressed 9. Wait (5000) 10. while (1==1) 11. { 12. limitswitch = Get DigitalInput (1); 13. if (limitswitch==1) 14. { 15. Set Motor (1.0); 16. Set Motor (10.0); 17. Wait (200) 18. } 19. else 20. } 21. Set Motor (1.-40); 22. Set Motor (10.40); 23. } 24. } 25. } Results: Group 1 cam in second place with an average of 23 mm from 5 trials. Group 2 (my group), came in third place with an average of 32 mm from the edge of the table. Group 3 came in last place with one fail and not having completed the rest of the trials yet. Group 4 came in first place with an average of 7 mm from the edge of the table. Conclusion: I think that...

Words: 371 - Pages: 2

Premium Essay

Raw Data

...@; do rep=1 to 3; do s1=1 to 3; do s2=1 to 2; input y @@; output; end;end;end; datalines; 1 1 12 13 14 15 23 22 15 16 17 18 24 15 26 25 18 19 20 21 1 2 23 10 23 20 15 33 26 13 26 23 16 12 18 36 29 16 29 26 1 3 21 15 34 23 16 19 24 18 37 26 17 17 19 22 27 21 40 29 2 1 13 18 23 14 18 21 16 21 26 17 19 20 21 24 19 24 29 20 2 2 16 16 13 25 19 21 19 19 16 28 20 18 22 24 22 22 19 31 2 3 17 24 15 17 19 21 20 27 18 20 20 26 22 24 23 30 21 23 ; proc print; run; /* lets consider A and B are random, and of course rep, samoplings ( s1 and s2 ) all are random */ proc glm; class a b rep s1 s2; model y=a b a*b rep(a*b) s1(rep*a*b); random a b a*b rep(a*b) s1(rep*a*b); run; proc varcomp method=type1; class a b rep s1 s2; model y=a b a*b rep(a*b) s1(rep*a*b); run; output: The SAS System 10:46 Wednesday, November 16, 2011 21 Obs a b rep s1 s2 y 1 1 1 1 1 1 12 2 1 1 1 1 2 13 3 1 1 1 2 1 14 4 1 1 1 2 2 15 5 1 1 1 3 1 23 6 1 1 1 3 2 22 7 1 1 2 1 1 15 8 1 1 2 1 2 16 ...

Words: 1626 - Pages: 7

Free Essay

Formula

...To Write a Chemical Formula in OWL Enclose subscripts with underscores _. Enclose superscripts with carats ^. The underscore key is next to the number zero on the keyboard. The carat key is the number six on the keyboard. H_2_O = H2O Cr^3+^ = Cr3+ Combined: SO_4_^2−^ = SO42− Ions Unit Charge Ions Write the number first and then the charge. Do not include the number one in unit charge ions. N^3−^ = N3− Ca^2+^ = Ca2+ Na^+^ = Na+ Cl^−^ = Cl− Using the Chemical Formula Input The chemical formula input box displays the superscripts and subscripts as you enter the formula. There are 3 ways to use the input box. • Keyboard: Use the keyboard to enter underscores and carats on your own. • Buttons after: Enter the formula without underscores or carats, then highlight each superscript and/or subscript, click the appropriate subscript or superscript button, and the underscores or carats will be filled in automatically. • Button during: Use the subscript or superscript buttons to enter the underscores and carats while you type the formula. To Write a Chemical Formula in OWL Enclose subscripts with underscores _. Enclose superscripts with carats ^. The underscore key is next to the number zero on the keyboard. The carat key is the number six on the keyboard. H_2_O = H2O Cr^3+^ = Cr3+ Combined: SO_4_^2−^ = SO42− Ions Unit Charge Ions Write the number first and then the charge. Do not include the number one in unit charge ions. N^3−^ = N3− Ca^2+^ = Ca2+...

Words: 264 - Pages: 2

Premium Essay

Random

...Grade 5 Math STAAR Student Workbook © Forde-Ferrier, L.L.C. Page 1 Table of Contents STAAR Reporting Category 1: Numbers, Operations, and Quantitative Reasoning TEKS 5.1(A) Read, Write, Compare, and Order Whole Numbers (Supporting) TEKS5.1(B) Read, Write, Compare, and Order Decimals (Supporting) TEKS 5.2(A) Generate Equivalent Fractions (Readiness) TEKS 5.2(B) Generate Mixed Numbers and Improper Fractions (Supporting) TEKS 5.2(C) Comparing Fractions (Readiness) TEKS 5.2(D) Relate Fractions to Decimals (Supporting) TEKS 5.3(A-C) Addition, Subtraction, Multiplication, and Division (Readiness) TEKS 5.3(D) Identify Common Factors of a Set of Whole Numbers (Supporting) TEKS 5.3(E) Addition and Subtraction of Fractions (Supporting) TEKS 5.4(A) Estimation (Supporting) STAAR Reporting Category 2: Patterns, Relationships, and Algebraic Thinking TEKS 5.5(A) Relationship of Data (Readiness) TEKS 5.5(B) Identify Prime and Composite Numbers (Supporting) TEKS 5.6(A) Solution Sentences (Supporting) STAAR Reporting Category 3: Geometry and Spatial Reasoning TEKS 5.7(A) Geometric Properties (Supporting) TEKS 5.8(A and B) Transformations (5.8A Readiness/5.8B Supporting) TEKS 5.9(A) Locate and Name Points on a Coordinate Grid (Supporting) STAAR Reporting Category 4: Measurement TEKS 5.10(A) Perform Simple Conversions (Supporting) TEKS 5.10(B) Formulas for Perimeter, Area, and Volume (Supporting) TEKS 5.10(C) Length, Perimeter, Area, and Volume (Readiness) TEKS 5.11(A) Changes in Temperature...

Words: 3028 - Pages: 13

Free Essay

Science Music

...| Bright Lights * Released: August 2000 * Label: Island | 1 | 3 | 2 | 2 | 6 | 3 | 10 | 1 | * UK: 3xPlatinum * AUS: Platinum * GER: Platinum * SWI: Platinum * FRA: Gold * NZ: Platinum * IRE: Platinum | 2001 | Dangerously In Love * Released: October 2001 * Label: Island | 1 | 1 | 1 | 1 | 3 | 1 | 6 | 1 | * UK: 4xPlatinum * AUS: Platinum * GER: Platinum * SWI: Platinum * FRA: Platinum * NZ: Platinum * AUT: Gold * IRE: Platinum | 2003 | All Night Long * Released: August 2003 * Label: Island | 1 | 6 | 5 | 5 | 10 | 6 | 14 | 1 | * UK: 2xPlatinum * AUS: Gold * GER: Gold * SWI: Gold * NZ: Gold * IRE: Platinum | 2004 | Troublemaker * Released: October 2004 * Label: Island | 3 | 12 | 10 | 10 | 14 | 12 | 18 | 3 | * UK: Platinum * IRE: Platinum | Year | Song | Peak chart positions | Sold | Album | | | UK | AUS | GER | SWI | FRA | NZ | AUT | IRE | | | 2000 | | 2 | 12 | 10 | 10 | 14 | 12 | 16 | 2 | * UK: Gold * AUS: Gold * NZ: Gold | | | | 1 | 6 | 4 | 4 | 8 | 6 | 10 | 1 | * UK: Platinum * AUS: Platinum * GER: Gold * SWI: Gold * NZ: Platinum | | 2001 | | 8 | 24 | 22 | 22 | 26 | 24 | 28 | 8 | * UK: Gold | | | | 12 | - | - | - | - | - | - | 12 | | | | | 1 | 8 | 6 | 6 | 10 | 8 | 12 | 1 | * UK: Platinum * AUS: Platinum * GER: Gold * SWI: Gold * NZ: Platinum | | 2002 | | 1 | 4 | 3 | 3 | 6 | 4 | 8 | 1 | * UK: Platinum * AUS: Platinum * GER: Gold * SWI:...

Words: 318 - Pages: 2

Free Essay

You Decide

...Choices and Consequences The Number 1 choice is Jerry, the father, offers the best utilitarianism of hope and use of his life to help his children and family and the best longevity of life given he has essentially been healthy except for the damage done to his heart from the Steroids some 20 to 30 years earlier. His wife and children play no part in the decision in him getting the heart. It all has to do with his health, and ability to live a life after he receives it. And also some other facts which should be considered like life expectancy, importance, age etc. when deciding on whom to donate the heart to. He’s cause for damage to the heart was the steroids, of which he was unaware of the consequences of taking the steroids at the time he took so there wasn’t any sort of health irresponsibility known otherwise. His chances to live 10-15 more years are very high so it’s one point investing in him. He has a family to take care of, wife and the 3 kids who he has to support till they are on their feet and so forth. He also has been a good supporting father as he’s already being supporting their dreams career wise and the future. So my first choice with all confidence would be Jerry. The number 2 choice is Ozzie because as LONG as he does not get back on his old ways HE does hold out some hope on society as a whole as long he does NOT revert back and does good in society by helping out and he no longer does any drugs - he really can have a useful and a prosperous and productive...

Words: 604 - Pages: 3