Импульс. Закон сохранения импульса



Векторная величина p, равная произведению массы m на скорость v, называется импульсом материальной точки.
p =mv .
Из выражения II закона Ньютона следует, что
.

Интегрирование этого выражения в пределах от t1 до t2 дает приращение импульса за промежуток времени Δt = t2 – t1

если то .

Таким образом, зная изменение импульса со временем, можно установить силу, действующую на тело.

И наоборот, зная импульс силы ^ F Δt, можно определить изменение импульса Δp и изменение скорости тела. Размерность импульса кг·м/c.

Рассмотрим систему, состоящую из N материальных точек (систему тел). Введем определение внутренних и внешних сил. Внутренние силы – силы, с которыми на данное тело воздействуют другие тела системы. Внешние силы – силы, обусловленные воздействием со стороны тел, не принадлежащих системе.В случае, если внешние силы отсутствуют, система называется замкнутой.
Импульсом системы называется векторная сумма
p = p1 + p2 + …+ pn=
Точка, положение которой в пространстве задается радиусом-вектором rc
,
называется центром инерции системы (здесь mi и ri - масса и радиус-вектор i – го тела системы, m - суммарная масса системы).Отметим, что центр инерции системы совпадает с центром тяжести системы. Скорость центра инерции vc
.
Учитывая, что m ivi = pi , а , можно записать p= mvc .

Таким образом импульс системы равен произведению массы m на скорость Vc центра инерции системы.
Пусть система состоит из трех тел (рис.6). В системе действуют: F12 , F23 и т.д. – внутренние силы; F1 , F2,F3 - равнодействующие внешних сил. Для каждого из тел системы можно записать

Из закона Ньютона следует, что F12 = - F21, F13 =-F31, F23 = -F32. Поэтому суммируя левые и правые части этих уравнений, получим:

Если внешние силы отсутствуют (или их равнодействующая равна нулю), то dp/dt = 0, а p = const. Следовательно, для замкнутой системы импульс есть постоянная величина. Полученный результат легко обобщить на систему, состоящую из произвольного n числа тел

(i = 1, 2, 3, …. n)

Суммируя эти равенства для всех n тел системы и учитывая, что Fik= -Fki , получим , т.е., производная импульса по времени равна сумме внешних сил. Для замкнутой системы сумма внешних сил равна нулю и для такой системы выполняется закон сохранения импульса: импульс замкнутой системы материальных точек остается постоянным.

.

Если внешние силы действуют, но их равнодействующая равна нулю, то импульс также остается постоянным. Если равнодействующая внешних сил не равна нулю, но ее проекция на некоторое направление, например, x, равна нулю, то для составляющей импульса на данное направление выполняется

срх

Из закона сохранения импульса вытекает, что центр инерции замкнутой системы тел либо остается неподвижным, либо движется равномерно и прямолинейно.

 

2) Свойства энтропии.

 

Основные свойства энтропии

1. Энтропия является величиной вещественной и неотрицательной, т.к. значения вероятностей pn находятся в интервале 0-1, значения logpn всегда отрицательны, а значения -pn logpn в (1.4.2) соответственно положительны.

2. Энтропия - величина ограниченная, т.к. при pn  0 значение -pn log pn также стремится к нулю, а при 0 <pn  1 ограниченность суммы всех слагаемых очевидна.

3. Энтропия равна 0, если вероятность одного из состояний источника информации равна 1, и тем самым состояние источника полностью определено (вероятности остальных состояний источника равны нулю, т.к. сумма вероятностей должна быть равна 1).

4. Энтропия максимальна при равной вероятности всех состояний источника информации:

Hmax(U) = -(1/N) log(1/N) = log N.

5. Энтропия источника с двумя состояниями u1 и u2 при изменении соотношения их вероятностей p(u1)=p и p(u2)=1-p определяется выражением:

H(U) = -[p log p + (1-p) log(1-p)],

и изменяется от 0 до 1, достигая максимума при равенстве вероятностей. График изменения энтропии приведен на рис. 1.4.1.

6. Энтропия объединенных статистически независимых источников информации равна сумме их энтропий.

Рассмотрим это свойство на двух источниках информации u и v. При объединении источников получаем обобщенный источник информации (u,v), который описывается вероятностями p(unvm) всех возможных комбинаций состояний un источника u и vm источника v. Энтропия объединенного источника при N возможных состояниях источника u и М возможных состояниях источника v:

H(UV) = -p(unvm) log p(unvm),

Источники статистически независимы друг от друга, если выполняется условие:

p(unvm) = p(un) p(vm).

С использованием этого условия соответственно имеем:

H(UV) = -p(un)p(vm) log [p(un)p(vm)] =

= -p(un) log p(un)p(vm) -p(vm) log p(vm)p(um).

С учетом того, что p(un) = 1 иp(vm) = 1, получаем:

H(UV) = H(U) + H(V). (1.4.3)

7. Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля, полностью игнорируя содержательную сторону ансамбля. С одной стороны, это расширяет возможности использования энтропии при анализе самых различных явлений, но, с другой стороны, требует определенной дополнительной оценки возникающих ситуаций. Как это следует из рис. 1.4.1, энтропия состояний может быть неоднозначной, и если в каком-либо экономическом начинании действие u с вероятностью pu=p приводит к успеху, а действие v с вероятностью pv=1-p к банкротству, то выбор действий по оценке энтропии может оказаться и прямо противоположным, т.к. энтропия при pv=p равна энтропии при pu=p.

БИЛЕТ-10


Дата добавления: 2018-04-04; просмотров: 332; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!