<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=ISO-8859-1" http-equiv="Content-Type">
</head>
<body bgcolor="#ffffff" text="#000000">
Hi Ed, <br>
<br>
I agree I was too generous in my statement and you promptly caught it,
thanks! <br>
<br>
phenix.refine does catch and deal with clearly nonsensical situations,
like having Fobs&lt;=0 in refinement. So, saying "phenix.refine does
not use any data cutoff for refinement" was not precise, indeed. In
addition, phenix.refine automatically removes Fobs outliers based on
R.Read paper.<br>
<br>
I don't see much sense having a term (0-Fcalc)**2 in least-squares
target or equivalent one in ML target. Implementing an intensity based
ML target function (or corresponding LS) would allow using Iobs&lt;=0,
but this is not done yet, and this is a different story -&nbsp; your
original question below was about Fo (Fobs).<br>
<br>
Do you have rock solid evidence that substituting missing (unmeasured)
Fobs with 0 would be better than just using actual set (Fobs&gt;0) in
refinement? Or did I miss any relevant paper on this matter? I would
appreciate if you point me out. Unless I see a clear evidence that this
would improve things I wouldn't waste time on implementing it.
Unfortunately I don't&nbsp; have time right now for experimenting with this
myself.<br>
<br>
Thanks!<br>
Pavel.<br>
<br>
<br>
On 5/17/10 6:52 AM, Ed Pozharski wrote:
<blockquote cite="mid:1274104366.15379.1.camel@shardik.rx.umaryland.edu"
 type="cite">
  <pre wrap="">On Fri, 2010-05-14 at 15:35 -0700, Pavel Afonine wrote:
  </pre>
  <blockquote type="cite">
    <pre wrap="">phenix.refine does not use any data cutoff for refinement.
    </pre>
  </blockquote>
  <pre wrap=""><!---->
So was the Fo&gt;0 hard-wired cutoff removed?  I don't have the latest
version so I can't check myself.

  </pre>
</blockquote>
</body>
</html>