Enfermagem

DEFINIÇÃO

A enfermagem é uma ciência cujo objetivo é a implantação do tratamento de doenças e o cuidado ao ser humano, individualmente, na família ou em comunidade de modo integral e holístico. No Brasil a profissão é exercida por auxiliares de enfermagem, técnicos de enfermagem e por enfermeiros, profissionais com formações e funções distintas dentro de uma mesma área.

Fonte: https://pt.wikipedia.org/wiki/Enfermagem

SIGNWRITING

sw

REFERÊNCIA

Comunidade Surda (Fortaleza/CE).

IMAGEM DE APOIO

Por Tradimus – Obra do próprio, CC BY 3.0, Hiperligação

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *