Pozytywny wizerunek firmy jest jednym z głównych elementów, decydujących o sukcesie przedsiębiorstwa. Świadome budowanie relacji z otoczeniem oraz tworzenie spójnego obrazu firmy przekłada się na większe zaufanie konsumentów, skuteczniejszą sprzedaż i trwalsze kontakty z kontrahentami.